JP4755501B2 - Lane detection device and lane departure warning device - Google Patents
Lane detection device and lane departure warning device Download PDFInfo
- Publication number
- JP4755501B2 JP4755501B2 JP2006020492A JP2006020492A JP4755501B2 JP 4755501 B2 JP4755501 B2 JP 4755501B2 JP 2006020492 A JP2006020492 A JP 2006020492A JP 2006020492 A JP2006020492 A JP 2006020492A JP 4755501 B2 JP4755501 B2 JP 4755501B2
- Authority
- JP
- Japan
- Prior art keywords
- lane
- vehicle
- lane detection
- detection
- host vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Processing (AREA)
Description
本発明は、車載カメラからの入力画像に基づいて車線(白線)を検出する車線検出装置、および該車線検出装置を備えた車線逸脱警報装置に関する。 The present invention relates to a lane detection device that detects a lane (white line) based on an input image from an in-vehicle camera, and a lane departure warning device including the lane detection device.
自車両の走行車線の左右に位置する車線(白線)を検出する車線検出装置として、車線を車載カメラで撮像して、撮像されたカメラ画像を視点変換して俯瞰画像(平面画像)に変形し、この俯瞰画像から自車両の走行車線の左右に位置する車線(白線)を検出する装置が提案されている(例えば、特許文献1参照)。 As a lane detection device that detects lanes (white lines) located on the left and right of the driving lane of the host vehicle, the lane is imaged by an in-vehicle camera, and the captured camera image is transformed into a bird's-eye view image (planar image). There has been proposed an apparatus for detecting lanes (white lines) located on the left and right of the traveling lane of the host vehicle from this overhead image (see, for example, Patent Document 1).
前記特許文献1に記載のレーンマーカ位置検出装置(車線検出装置)では、自車両の走行車線の左右に位置する車線を車両のリアに搭載した車載カメラで撮像して、撮像されたカメラ画像を視点変換して俯瞰画像に変形し、この俯瞰画像の路面の幅方向に直交する方向の座標の輝度を積分して、この積分輝度を路面の幅方向の座標別に算出する。そして、車線に対応する強い積分輝度(輝度ピーク)を示した位置を検出して、自車両の走行車線の左右に位置する車線を検出するようにしている。
In the lane marker position detection device (lane detection device) described in
また、前記特許文献1に記載のレーンマーカ位置検出装置(車線検出装置)を備えた車線逸脱警報装置では、このレーンマーカ位置検出装置による車線の検出結果と、横移動速度検出手段から入力される自車両の横移動速度情報に基づいて、自車両が車線から逸脱傾向にあるか否かを判定する。
ところで、前記特許文献1に記載のレーンマーカ位置検出装置の構成では、自車両の走行車線の左右に位置する車線に対して車両が平行状態であるのか、どちらか一方の車線側に向いて傾いている状態であるのかは検出することができず、更に、車線(道路)がカーブしているのか否かについても検出することができなかった。
By the way, in the configuration of the lane marker position detection device described in
このため、走行している自車両がどちらか一方の車線側に向いて傾いている状態のときや、車線がカーブしている場合などにおいても、自車両とその走行車線の両側に位置する車線の位置関係を把握できるようにして、より適切な車線逸脱傾向の判定と警報を行うことができる車線逸脱警報装置が望まれていた。更に、前記特許文献1の装置のように、車両後方の路面を撮像する構成では、車両前端(フロントバンパー付近)側を撮像していないので、車両前端に対する車線逸脱傾向の判定を迅速に行うことができなかった。
For this reason, even when the traveling vehicle is tilted toward one of the lanes or when the lane is curved, the lanes located on both sides of the traveling vehicle and the traveling lane Thus, a lane departure warning device has been desired that can determine the lane departure tendency and perform a warning more appropriately. Further, in the configuration in which the road surface behind the vehicle is imaged as in the device of
また、前記特許文献1に記載のレーンマーカ位置検出装置は、自車両の走行車線の左右に位置する車線を検出することができるが、片道複数車線の道路では、自車両がどの車線内(例えば、片道2車線の場合に、路側帯側の左車線か中央分離線側の右車線)を走行中かを判定することができなかった。
In addition, the lane marker position detection device described in
そこで、本発明は、走行している自車両が左右のどちらか一方の車線側に向いて傾いている状態のときや、車線(道路)がカーブしている場合などにおいても、自車両とその左右に位置する車線の位置関係を把握して、より適切な車線逸脱傾向の判定と警報を行うことができる車線検出装置および車線逸脱警報装置を提供する。また、単線や片道複数車線の道路でも自車両の走行車線位置を容易に、かつ正確に判定することができる車線検出装置を提供する。 Therefore, the present invention can be applied to the vehicle and its vehicle even when the traveling vehicle is inclined toward the left or right lane or when the lane (road) is curved. Provided are a lane detection device and a lane departure warning device capable of grasping the positional relationship between lanes located on the left and right sides, and determining and warning a more appropriate lane departure tendency. Further, the present invention provides a lane detection device that can easily and accurately determine the traveling lane position of the host vehicle even on a single-track road or a multi-lane road.
前記目的を達成するために、本発明に係る車線検出装置は、自車両の後方側の路面を撮像する撮像手段と、前記撮像手段で撮像された画像を俯瞰画像に変形する俯瞰画像生成手段と、前記俯瞰画像手段で生成された俯瞰画像に対して、自車両の進行方向に対して垂直に複数の車線検出領域を設定する車線検出領域設定手段と、前記車線検出領域設定手段で設定された前記各車線検出領域に対して、路面幅方向に沿った輝度プロファイルをそれぞれ算出する輝度プロファイル算出手段と、前記輝度プロファイル算出手段で算出された前記各輝度プロファイルに基づいて前記各車線検出領域における路面上の車線の位置を検出する車線検出手段と、前記車線検出手段で検出した車線が実線か破線かを、前記各車線検出領域における前記輝度プロファイルの強度のばらつきに基づいて判定する車線種別判定手段と、を備えたことを特徴としている。 To achieve the above object, a lane detecting device according to the present invention includes an imaging means for imaging the road way side after the vehicle, overhead image generating means for deforming the image captured by the imaging means to the overhead image Lane detection area setting means for setting a plurality of lane detection areas perpendicular to the traveling direction of the host vehicle with respect to the overhead image generated by the overhead image means, and the lane detection area setting means A luminance profile calculation means for calculating a luminance profile along the road surface width direction for each lane detection area, and each lane detection area based on each luminance profile calculated by the luminance profile calculation means. Lane detection means for detecting the position of the lane on the road surface, and whether the lane detected by the lane detection means is a solid line or a broken line, the luminance profile in each lane detection area. It is characterized and determining lane type determining means based on the variation of the intensity of yl, further comprising a.
また、本発明に係る車線逸脱警報装置は、請求項1または2に記載の車線検出装置と、
自車両の横移動速度を検出する横移動速度検出手段と、車線位置に対する自車両の前端位置を予測する車両前端位置予測手段と、前記車線検出装置の前記車線検出手段で検出された前記各車線検出領域における車線検出情報と前記横移動速度検出手段で検出された自車両の横移動速度情報および前記車両前端位置予測手段により予測された自車両の前端予測位置情報とに基づいて、自車両が車線逸脱傾向にあるか否かを判定する車線逸脱判定手段と、前記車線逸脱判定手段により自車両が車線逸脱傾向にあると判定した場合に、警報報知手段に対して警報を報知するような警報信号を出力する警報信号出力手段と、を備えたことを特徴としている。
A lane departure warning device according to the present invention includes a lane detection device according to
Lateral movement speed detecting means for detecting the lateral movement speed of the host vehicle, vehicle front end position predicting means for predicting the front end position of the host vehicle with respect to the lane position, and each lane detected by the lane detecting means of the lane detecting device Based on the lane detection information in the detection region, the lateral movement speed information of the own vehicle detected by the lateral movement speed detection means, and the predicted front end position information of the own vehicle predicted by the vehicle front end position prediction means, A lane departure determination means for determining whether or not the vehicle is in a lane departure tendency, and an alarm for notifying the alarm notification means when the vehicle lane departure determination means determines that the host vehicle is in a lane departure tendency And an alarm signal output means for outputting a signal.
本発明に係る車線検出装置によれば、撮像手段で撮像した路面画像から生成した俯瞰画像に対して複数の車線検出領域を設定し、各車線検出領域において路面幅方向に沿って算出した輝度プロファイルに基づいて、自車両の走行車線の両側における車線を検出することができる。更に、車線検出手段で検出した車線が実線か破線かを、各車線検出領域における輝度プロファイルの強度のばらつきを評価することによって判定することができるので、この判定結果に基づいて自車両の走行車線位置を容易に、かつ正確に判定することが可能となる。 According to the lane detection device of the present invention, a plurality of lane detection areas are set for the overhead image generated from the road surface image captured by the imaging means, and the brightness profile calculated along the road surface width direction in each lane detection area Based on this, it is possible to detect lanes on both sides of the traveling lane of the host vehicle. Furthermore, since it is possible to determine whether the lane detected by the lane detection means is a solid line or a broken line by evaluating variations in the intensity of the luminance profile in each lane detection region, the traveling lane of the host vehicle is determined based on the determination result. The position can be easily and accurately determined.
また、本発明に係る車線逸脱警報装置によれば、自車両が車線逸脱傾向にあるか否かを判定する場合に、車両前端の予測位置を考慮することにより、車線に対して車両が傾いている場合や車線(道路)がカーブしている場合においても車線逸脱傾向の判定をより迅速にかつ正確に行うことが可能となり、運転者に対してより適切な警報が可能となる。 Further, according to the lane departure warning device according to the present invention, when determining whether or not the host vehicle is in a lane departure tendency, the vehicle is inclined with respect to the lane by considering the predicted position of the front end of the vehicle. Even when the vehicle is on the road or the lane (road) is curved, the lane departure tendency can be determined more quickly and accurately, and a more appropriate warning can be given to the driver.
以下、本発明を図示の実施形態に基づいて説明する。図1は、本発明の実施形態に係る車線検出装置を備えた車線逸脱警報装置を示す概略構成図である。なお、本明細書では、道路上において、車両の走行車線(車両通行帯)を区分する車線区分線としての白色や黄色などの線(一定間隔の破線等も含む)を「車線」と定義する。 Hereinafter, the present invention will be described based on the illustrated embodiments. FIG. 1 is a schematic configuration diagram illustrating a lane departure warning device including a lane detection device according to an embodiment of the present invention. In this specification, a line such as white or yellow (including broken lines at regular intervals) as a lane dividing line that divides a vehicle lane (vehicle lane) on a road is defined as a “lane”. .
図1に示すように、本実施形態に係る車線逸脱警報装置1は、この車線逸脱警報装置1を搭載した車両が走行車線から左右いずれかの車線側に逸脱傾向にあると判定したときに運転者に対して警報を行うものであり、車線検出装置2と車線逸脱警報ユニット3とを主要構成部として備えている。
As shown in FIG. 1, the lane
車線検出装置2は、撮像手段としてのCCDカメラ(以下、「カメラ」という)4と車線検出ユニット5とで構成されており、車線検出ユニット5は、画像処理部6、俯瞰画像生成部7、フレームメモリ8、車線検出領域設定部9、輝度プロファイル算出部10、車線検出部11および車線種別判定部12を有している。車線逸脱警報ユニット3は、横移動速度検出部13、直線性判定部14、車両前端予測位置算出部15、車線逸脱判定部16および警報信号出力部17を有している。なお、本実施形態では前記直線性判定部14と車両前端予測位置算出部15が、車両前端位置予測手段に相当する。車線逸脱警報ユニット3および車線検出ユニット5は、演算を行うマイクロプロセッサ、該マイクロプロセッサに所定の処理を実行させるためのプログラム等を記憶しているROM、演算結果などの各種データを記憶するRAM等により構成されている。
The
カメラ4は、本実施形態では、図2に示すように、車両(自車両)20の後部に設置されており、車両20の後方下側の路面(車両後端直下付近と路面の両側周囲も含む)を撮像する。図2において、左側がこの車両20の進行方向である。このカメラ4は、例えば片道2車線道路以上でも路面幅以上の広角範囲が撮像可能な広角レンズが取付けられている。なお、この車両20に、後退車庫入れや縦列駐車するときに車両後方の撮像画像を車室内のモニタに表示する後方モニタ装置が装備されている場合には、この後方モニタ装置用のカメラを前記カメラ4として使用することもできる。また、前記カメラ4を車両20の前部側に設けて、車両前方側の路面を撮像する構成でもよい。
In this embodiment, as shown in FIG. 2, the
車線検出ユニット5の画像処理部6は、カメラ4からの撮像信号に基づいて車両後方下側の路面画像を生成する。なお、カメラ4は広角レンズで広角範囲を撮像するので、画像処理部6で得られる路面画像は、全体的に湾曲した画像となる。
The
俯瞰画像生成部7は、周知の手法により画像処理部6で得られた湾曲した路面画像(湾曲画像)の歪を修正処理し、かつ、視点変換(180度回転)して路面の真上から見たような俯瞰画像(平面画像)を生成する。
The bird's-eye view
フレームメモリ8は、俯瞰画像生成部7で得られた俯瞰画像の1フレーム分の画面を格納する。車線検出領域設定部9は、フレームメモリ8から読み出された俯瞰画像の画面に対して複数の車線検出領域をそれぞれ設定する(詳細は後述する)。
The
輝度プロファイル算出部10は、車線検出領域設定部9で設定した各車線検出領域から輝度プロファイル(ヒストグラム)をそれぞれ算出し、車線検出部11は、輝度プロファイル算出部10で算出された輝度プロファイルに基づいて各車線検出領域における路面上の車線の位置を検出する(詳細は後述する)。また、車線種別判定部12は、車線検出部11で検出した車線の種別(実線か破線)を判定し、判定した車線種別(実線か破線)に基づいて自車両が現在どの走行車線(走行通行帯)に位置しているかを判定する(詳細は後述する)。
Brightness
車線逸脱警報ユニット3の横移動速度検出部13は、車線検出ユニット5の車線検出部11で検出された各車線検出領域における車線の位置(および車線種別判定部12で判定された種別)を、フレームメモリ8から例えば30msec毎に順次出力される1フレーム毎に検出することにより、1フレーム毎の車線の位置ずれ量を算出して、車両が左右どちらか一方側の車線に近づいているときの横移動速度を検出することができる。なお、1フレーム毎の車線の位置ずれ量がほぼ0の場合は、車線が直線的な場合である。
The lateral movement
直線性判定部14は、横移動速度検出部13から入力される車両の横移動速度情報に基づいて、車両の横移動速度がほぼ0である場合には車線が直線性を有していると判定し、車両の横移動速度が検出されている場合には車線が非直線的である(車線(道路)がカーブしている)と判定する。
The
車両前端予測位置算出部15は、直線性判定部14で車線が直線性を有していると判定した場合に車線に対して車両の傾き度合いを算出する車両傾き算出部15aと、直線性判定部14で車線が非直線的であると判定した場合に車線(道路)の曲率半径を算出する曲率半径算出部15bとを有し、位置算出部15cは、車両傾き算出部15aまたは曲率半径算出部15bから入力される算出結果に基づいて、車線に対する車両前端の予測位置を算出する(詳細は後述する)。
The vehicle front end predicted
車線逸脱判定部16は、車線検出部11で検出された各車線検出領域における車線検出情報と、横移動速度検出部13から入力される車両の横移動速度情報と、車両前端予測位置算出部15から入力される車線に対する車両前端の予測位置情報とに基づいて、車両が走行車線から逸脱傾向にあるか否かを判定する。
The lane departure determination unit 16 includes lane detection information in each lane detection area detected by the
警報信号出力部17は、車線逸脱判定部16で車両が走行車線から逸脱傾向にあると判定した場合に、車室内に設けたスピーカ18と表示部19に警報信号を出力し、スピーカ18から所定の警報音を発せさせ、表示部19に警報灯を点灯(または点滅)させる。なお、スピーカ18または表示部19のどちらか一方のみで警報を行う構成でもよい。
The warning
また、本実施形態では、車両傾き算出部15aが所定値以上の傾き値を算出した場合には、車線逸脱判定部16で車線逸脱傾向の判定を行うことなく、警報信号出力部17からスピーカ18と表示部19に警報信号をすぐに出力し、スピーカ18から所定の警報音を発せさせ、表示部19に警報灯を点灯(または点滅)させる。
Further, in this embodiment, when the vehicle
〈車線検出処理と車線逸脱警報処理〉
次に、前記した車線逸脱警報装置1による車線検出処理、車線逸脱警報処理を、図3、図4に示すフローチャートを参照して説明する。
<Lane detection processing and lane departure warning processing>
Next, lane detection processing and lane departure warning processing by the above-described lane
先ず、走行車線を走行中の車両20(図2参照)は、車両後部のカメラ4で車両後部下側の路面を撮像し、この撮像情報(撮像信号)を車線検出ユニット5の画像処理部6に入力する(ステップS1)。画像処理部6は、入力される撮像情報(撮像信号)に基づいて車両後方下側の路面画像(全体的に湾曲した画像)を生成する(ステップS2)。
First, the vehicle 20 (see FIG. 2) traveling in the traveling lane images the road surface below the rear of the vehicle with the
そして、俯瞰画像生成部7により前記路面画像の歪を修正処理し、かつ、視点変換(180度回転)して路面の真上から見たような俯瞰画像(平面画像)に変換する(ステップS3)。図5は、俯瞰画像生成部7で得られた俯瞰画像の一例である。図5において、上側が車両後部直下近傍の路面で、下側が車両20の後方側の路面であり、車両20が片道2車線道路の左側(路側帯側)の走行車線を走行している状況である。
Then, the overhead
なお、図5において、21は走行車線、22はその右側の隣接車線、23は路側帯24側との境界を示す実線の車線(以下、「第1車線」という)、25は走行車線21と隣接車線22との境界を示す破線状の車線(以下、「第2車線」という)、26は走行車線21上に設けた速度マーク(図では、40)である。俯瞰画像生成部7で得られた俯瞰画像(図5参照)の1フレームの画面は、フレームメモリ8に格納される(ステップS4)。
In FIG. 5, 21 is a travel lane, 22 is an adjacent lane on the right side, 23 is a solid lane indicating the boundary with the
そして、前記1フレーム分の画像(図5参照)が例えば30msec間隔でフレームメモリ8から読み出され、例えば、図6に示すように、車線検出領域設定部9により前記1フレーム分の画像に対して、車両の走行方向(図6では、上下方向)に沿って複数(図では、2つ)の車線検出領域A1,A2をそれぞれ設定する(ステップS5)。各車線検出領域A1,A2は、四角形状の枠で囲まれた領域であり、自車両が走行している走行車線21と、その両側に位置する路側帯24の一部および隣接車線22の一部を含む範囲まで設定されている。また、各車線検出領域A1,A2は、車両の走行方向(図6では、上下方向)に沿って所定の間隔を設けて設定されいる。
Then, the image for one frame (see FIG. 5) is read out from the
そして、輝度プロファイル算出部10は、車線検出領域設定部9で設定した各車線検出領域A1,A2における輝度プロファイルをそれぞれ算出する(ステップS6)。すなわち、輝度プロファイル算出部10は、各車線検出領域A1,A2における俯瞰画像の路面の幅方向に直交する方向の座標(画素)の明るさ(輝度)を積分して、この積分輝度を路面の幅方向における座標(画素)ごとの輝度ファイルを算出する。
Then, the luminance
図7(a)は車線検出領域A1に対する輝度ファイル、図7(b)は車線検出領域A2に対する輝度ファイルである。図7(a)、(b)において、横軸は路面幅方向、縦軸は積分輝度の強度である。なお、図7(a)、(b)における各輝度ファイルは、ノイズ等のない理想的な状態であるが、実際にはノイズが生じている輝度ファイルとなる。 FIG. 7A shows a luminance file for the lane detection area A1, and FIG. 7B shows a luminance file for the lane detection area A2. 7A and 7B, the horizontal axis represents the road surface width direction, and the vertical axis represents the intensity of integrated luminance. Note that each luminance file in FIGS. 7A and 7B is an ideal state without noise or the like, but is actually a luminance file in which noise is generated.
そして、車線検出部11は、輝度プロファイル算出部10から入力される輝度プロファイル情報(積分輝度の強度(ピーク値))に基づいて、路面上の車線を検出する(ステップS7)。すなわち、車線検出部11は、車線検出領域A1,A2において積分輝度a1,a2が、自車両の走行車線21の両側の車線(第1車線23と第2車線25(図6参照)であることを検出する。なお、この際、車線種別判定部12により、車線検出部11で検出した車線の種別(実線か破線)を検出し、検出した車線種別(実線か破線)に基づいて自車両が現在どの走行車線(走行通行帯)に位置しているかを判定する(詳細は後述する)。
The
そして、車線逸脱警報ユニット3の横移動速度検出部13は、前記したように車線検出部11で検出した車線(第1車線23と第2車線25)の位置を、フレームメモリ8から例えば30msec毎に順次出力される1フレーム毎に検出して、1フレーム毎の車線の位置ずれ量を算出し、この算出結果に基づいて車両の横移動速度を検出する(ステップS8)。
Then, the lateral movement
そして、直線性判定部14は、横移動速度検出部13から入力される車両の横移動速度情報に基づいて、車線検出部11で検出した車線(第1車線23と第2車線25)の直線性を判定する(ステップS9)。ステップS9で、車両の横移動速度がほぼ0であると算出した結果に基づいて、車線(第1車線23と第2車線25)が直線性を有していると判定した場合(ステップS10;YES)、車両傾き算出部15aは、車線に対する車両の傾き度合いを算出する(ステップS11)。
The
車線に対する車両の傾きは、車線検出部11で検出した各車線検出領域A1,A2における車線の位置に基づいて算出することができる。即ち、車両が車線に対して傾いている場合(車両が車線方向に蛇行して進行してる場合)には、俯瞰画像生成部7により例えば、図8に示すような俯瞰画像が得られ、設定された各車線検出領域A1,A2も車線に対して傾いた状態となる。なお、図8に示す俯瞰画像では、走行車線の両側に位置する第1車線23,第2車線25の方が傾いているが、実際は直線的な第1車線23,第2車線25に対して車両の方が傾いている。
The inclination of the vehicle with respect to the lane can be calculated based on the position of the lane in each lane detection area A1, A2 detected by the
図9(a)、(b)に示すように、例えば車線検出領域A1,A2において、輝度ファイルの車線位置に対応した積分輝度a1,a2の位置が、車両の傾きに応じて少しずれる。図9(a)、(b)において、車線検出領域A1,A2での車線(積分輝度a1,a2)の位置ずれ量(△x)と、車線検出領域A1,A2の間隔(△y)から、車両の車線に対する傾き(tanθ=△x/△y)を算出することができる。 As shown in FIGS. 9A and 9B, for example, in the lane detection areas A1 and A2, the positions of the integrated luminances a1 and a2 corresponding to the lane positions of the luminance file are slightly shifted according to the inclination of the vehicle. 9A and 9B, from the positional deviation amount (Δx) of the lane (integrated luminances a1, a2) in the lane detection areas A1, A2, and the interval (Δy) between the lane detection areas A1, A2. The inclination of the vehicle with respect to the lane (tan θ = Δx / Δy) can be calculated.
そして、ステップS11で、車両が車線に対して傾いていると算出した場合(ステップS12;YES)において、車両の車線に対する傾きが予め設定した所定値以下(傾きが小さい)の場合(ステップS13;NO)は、位置算出部15cにより、車両傾き算出部15aから入力される算出結果に基づいて、車両長さを考慮した車線に対する車両前端の予測位置を算出する(ステップS14)。
When it is calculated in step S11 that the vehicle is inclined with respect to the lane (step S12; YES), the inclination of the vehicle with respect to the lane is equal to or smaller than a predetermined value (the inclination is small) (step S13; NO) calculates the predicted position of the front end of the vehicle with respect to the lane in consideration of the vehicle length based on the calculation result input from the vehicle
即ち、本実施形態では、図2に示したように、車両20の後部にカメラ4を設置している。このため、俯瞰画像生成部7で得られる俯瞰画像は車両後方直下の画像なので、車両が傾いている場合における、車線逸脱傾向の迅速で正確な判定には、車両長さを考慮して車両前端の位置を予測する必要がある。そこで、位置算出部15cは、例えば、検出された車線の位置に対し、車両の横移動速度および車両長さを考慮して車両前端の予測位置を算出する。
That is, in this embodiment, as shown in FIG. 2, the
そして、車線逸脱判定部16は、車線検出部11から入力される車線検出情報と、横移動速度検出部13から入力される横移動速度情報と、車両前端予測位置算出部15の位置算出部15cから入力される車両前端予測位置情報とに基づいて、自車両(車両20)が走行車線21から車線逸脱傾向にあるか否かを判定する(ステップS15)。
The lane departure determination unit 16 then receives the lane detection information input from the
そして、車線逸脱判定部16が車線逸脱傾向にあると判定すると(ステップS16;YES)、警報信号出力部17は、車線逸脱判定部16から入力される判定情報に基づいてスピーカ18、表示部19に警報信号を出力し(ステップS17)、スピーカ18から警報音を発せさせ、かつ表示部19に警告灯を点灯(または点滅)させる。そして、ステップS1に戻り、前記同様の処理を繰り返す。
When the lane departure determination unit 16 determines that the vehicle has a lane departure tendency (step S16; YES), the warning
なお、ステップS16で、車線逸脱傾向にないと判定した場合は(ステップS16;NO)、警報信号出力部17からスピーカ18、表示部19に警報信号が出力されている状態であれば停止させて(ステップS18)、ステップS1に戻り、前記同様の処理を繰り返す。また、ステップS12で、車両が車線に対して傾いていないと算出した場合(ステップS12;NO)には、前記ステップS15に進む。
If it is determined in step S16 that there is no tendency to depart from the lane (step S16; NO), if the alarm signal is output from the alarm
また、ステップS13で、車両の車線に対する傾きが予め設定した所定値以上(傾きが大きい)の場合(ステップS13;YES)は、車線逸脱傾向にあると判定して、すぐにスピーカ18、表示部19に警報信号を出力し(ステップS17)、スピーカ18から警報音を発せさせ、かつ表示部19に警告灯を点灯(または点滅)させる。
In step S13, if the inclination of the vehicle with respect to the lane is equal to or greater than a predetermined value (the inclination is large) (step S13; YES), it is determined that there is a tendency to depart from the lane, and the
また、ステップS10で、車線(道路)が直線性を有していない(即ち、カーブしている)と判定した場合(ステップS10;NO)、曲率半径算出部15bは、車線検出部11で検出した各車線検出領域A1,A2における車線の位置に基づいて、カーブしている車線(道路)の曲率半径を算出する(ステップS19)。
If it is determined in step S10 that the lane (road) is not linear (that is, curved) (step S10; NO), the curvature
車線(道路)が所定の曲率半径でカーブしている場合は、俯瞰画像生成部7により例えば、図10に示すようなカーブした車線26、27を有する俯瞰画像が得られ、設定した複数(図では、4つ)の車線検出領域B1,B2,B3,B4において、前記同様に車線検出部11により車線26、27の位置が検出される。
When the lane (road) is curved with a predetermined radius of curvature, the overhead
そして、図10に示したカーブしている車線26、27は、俯瞰図として見た場合には単純な同心円として評価できるため、各車線検出領域B1〜B4における車線26、27の位置の座標から、以下の式(円の式)に基づいてこの車線26、27の曲率半径を求めることができる。
Since the
(x1−x0)2+(y1−y0)2=r2…(式1)
(x2−x0)2+(y2−y0)2=(r−w)2…(式2)
(x 1 −x 0 ) 2 + (y 1 −y 0 ) 2 = r 2 (Formula 1)
(x 2 −x 0 ) 2 + (y 2 −y 0 ) 2 = (r−w) 2 (Formula 2)
式1は車線26側の円の式であり、式2は車線27である。なお、(x1,y1)は車線26側の座標、(x2,y2)は車線27側の座標、(x0,y0)は車線26、27の中心座標、rは車線26、27の曲率半径(半径)、wは車線26と車線27間の距離(幅)であり、各車線検出領域B1〜B4における車線26、27の位置において、前記式1、式2から車線26、27の中心座標(x0,y0)、曲率半径(r)を求めることができる。
そして、ステップS19で算出された曲率半径を有する車線(道路)におて、前記した位置算出部15cにより、車線に対する車両前端の予測位置を算出する(ステップS14)。そして、車線逸脱判定部16は、車線検出部11から入力される車線検出情報と、横移動速度検出部13から入力される横移動速度情報と、車両前端予測位置算出部15の位置算出部15cから入力される車両前端予測位置情報とに基づいて、自車両(車両20)が走行車線から車線逸脱傾向にあるか否かを判定する(ステップS15)。以下、前記したステップS16〜S18の処理を行う。
Then, the predicted position of the front end of the vehicle with respect to the lane is calculated by the
このように、本実施形態に係る車線逸脱警報装置1によれば、車線に対して車両が傾いている場合や、車線(道路)がカーブしている場合に、車両前端の予測位置を考慮することにより、車両が車線逸脱傾向の判定をより迅速に、かつ正確に行うことができるので、運転者に対してより適切な警報を発することが可能となる。
As described above, according to the lane
更に、直線性を有する車線に対して車両が予め設定した所定値以上に傾いている(傾きが大きい)と判定した場合は、直ちに運転者に対して強めの警報(大きめの警報音や高輝度の点灯(または点滅))を行うことにより、運転者に対して車両が車線逸脱傾向にあることを迅速に報知することが可能となる。 Furthermore, if it is determined that the vehicle is tilted above a predetermined value (large tilt) with respect to the lane having linearity, a strong warning (a large warning sound or high brightness) is immediately given to the driver. By turning on (or blinking), it is possible to promptly notify the driver that the vehicle is in a lane departure tendency.
〈多重車線の場合における車線検出〉
1本の線(白色や黄色の線)で示された車線が最も一般的であるが、路面上に複数の車線が近接して、多重車線として設けられている場合がある。例えば、図11に示すように、片道2車線の道路において、この2車線の中央に車線分離線として3本の破線状の車線28a,28b,28cが近接して、多重車線として設けられている場合がある。なお、図11において、左側の車線29は路側帯側の車線、右側の車線30は反対側車線との間に設けた中央分離車線(センターライン)である。
<Lane detection in the case of multiple lanes>
A lane indicated by a single line (white or yellow line) is the most common, but a plurality of lanes may be close to each other on the road surface and provided as multiple lanes. For example, as shown in FIG. 11, in a two-lane road, three
この多重車線(車線28a,28b,28c)において、中央に位置する車線28aが車両の走行方向(図11では、上下方向)の破線長さが一番長く、その両側の車線28b,28cはそれより短くなっており、中央に位置する車線28aが正当な車線分離線である。
In this multiple lane (
以下、図11に示すような多重車線(車線28a,28b,28c)が設けられている場合における、車線検出装置2による車線検出について説明する。
Hereinafter, lane detection by the
車両後部のカメラ4(図1、図2参照)で撮像した車両後方下側の多重車線を有する路面画像は、俯瞰画像生成部7により俯瞰画像に変換し、かつ視点変換(180度回転)することにより、例えば図11に示したような多重車線(車線28a,28b,28c)を有する俯瞰画像が得られる。
A road surface image having multiple lanes on the lower rear side of the vehicle imaged by the
そして、1フレーム分の俯瞰画像(図11参照)が例えば30msec間隔でフレームメモリ8から読み出され、例えば、図12に示すように、車線検出領域設定部9により前記1フレーム分の俯瞰画像に対して複数(図では、3つ)の車線検出領域C1,C2,C3をそれぞれ設定する。
Then, a bird's-eye view image for one frame (see FIG. 11) is read from the
各車線検出領域C1〜C3は四角形状の枠で囲まれた領域であり、車線検出領域C1は、左側の車線29から中央の車線28cの外側まで含み、かつ車両の走行方向(図12では、上下方向)に対しても広い範囲をカバーしている。また、同じ大きさの車線検出領域C2,C3は、車線検出領域C1内に位置し、車両の走行方向(図12では、上下方向)に沿って所定の間隔で設定される。車線検出領域C2,C3も、左側の車線29から中央の車線28cの外側までを含んでいる。
Each of the lane detection areas C1 to C3 is an area surrounded by a rectangular frame. The lane detection area C1 includes the
そして、輝度プロファイル算出部10は、前記したように車線検出領域設定部9で設定した各車線検出領域C1,C2,C3における輝度プロファイルをそれぞれ算出する。
Then, the luminance
図13(a)は車線検出領域C1に対する輝度ファイル、図13(b)は車線検出領域C3に対する輝度ファイルである。図13(a)、(b)において、横軸は路面幅方向、縦軸は積分輝度の強度である。なお、図13(a)、(b)における各輝度ファイルは、路面上においてノイズ等のない理想的な状態であるが、実際にはノイズが生じている輝度ファイルとなる。 FIG. 13A shows a luminance file for the lane detection area C1, and FIG. 13B shows a luminance file for the lane detection area C3. In FIGS. 13A and 13B, the horizontal axis represents the road surface width direction, and the vertical axis represents the intensity of the integrated luminance. Each of the luminance files in FIGS. 13A and 13B is an ideal state with no noise on the road surface, but actually is a luminance file in which noise is generated.
検出領域の狭い車線検出領域C3における輝度ファイル(図13(b)参照)の場合、車線28aに対する積分輝度b1は、その両側の車線28b,28cに対する積分輝度b2,b3よりも強度(ピーク)が小さいので、車線検出部11は、車線28b,28c(積分輝度b2,b3)を正当な車線であると誤検出したり、車線検出ができない場合がある。しかしながら、検出領域が広い車線検出領域C1における輝度ファイル(図13(a)参照)から最大ピークを探すことにより、車線検出領域C3における局所的な車線パターンの揺らぎによる影響を除去し、正当な車線である車線28a(積分輝度b1)の位置を正確に検出することができる。
In the case of a luminance file (see FIG. 13B) in the lane detection region C3 having a narrow detection region, the integrated luminance b1 for the
このように、図11のような多重車線(車線28a,28b,28c)が設けられている場合でも、正当な車線28aの位置を正確に検出することができるので、前記した車両前端予測位置算出部15の車両傾き算出部15aで車線に対する車両の傾きを検出するときに、正しい車線(車線28a)に対する車両の傾きを検出することができる。
In this way, even when multiple lanes (
〈車線種別の判定処理〉
前記した車線検出装置2の車線種別判定部12(図1参照)は、車線検出部11で検出した車線の種別(実線か破線)を判定し、判定した車線種別(実線か破線)に基づいて自車両が現在どの走行車線(走行通行帯)に位置しているかを判定するすることができる。
<Determination processing of lane type>
The lane type determination unit 12 (see FIG. 1) of the
以下、車線種別(実線か破線)の判定による自車両の走行車線位置の判定処理を、図14に示すフローチャートを参照して説明する。なお、図14に示す走行車線位置の判定処理では、自車両の走行車線の両側が実線の車線であれば、単線(片道1車線)と判定し、自車両の走行車線の左側(左車線)が実線で右側(右車線)が破線であれば、片道2車線の左車線と判定し、また、自車両の走行車線の左側(左車線)が破線で右側(右車線)が実線であれば、片道2車線の右車線と判定し、さらに、自車両の走行車線の左側(左車線)が破線で右側(右車線)も破線であれば、片道3車線の中央車線と判定するように設定している。 Hereinafter, the determination processing of the traveling lane position of the own vehicle by determining the lane type (solid line or broken line) will be described with reference to the flowchart shown in FIG. In the travel lane position determination process shown in FIG. 14, if both sides of the travel lane of the host vehicle are solid lanes, it is determined as a single line (one lane in one way), and the left side (left lane) of the travel lane of the host vehicle. If is a solid line and the right side (right lane) is a broken line, it is determined as a left lane of two lanes in one way, and if the left side (left lane) of the driving lane of the host vehicle is a broken line and the right side (right lane) is a solid line If the left lane (left lane) is the broken line and the right lane (right lane) is also a broken line, the vehicle is determined to be the center lane of 3 lanes. is doing.
先ず、車両後部のカメラ4で車両後部下側の路面を撮像し、この撮像情報(撮像信号)を車線検出ユニット5の画像処理部6に入力する(ステップS21)。画像処理部6は、入力される撮像情報(撮像信号)に基づいて車両後方下側の路面画像(全体的に湾曲した画像)を生成する(ステップS22)。
First, the
そして、俯瞰画像生成部7により前記路面画像の歪を修正処理し、かつ、視点変換(180度回転)して路面の真上から見たような俯瞰画像に変換する(ステップS23)。俯瞰画像生成部7で得られた俯瞰画像(例えば、前記図5に示したような俯瞰画像)の1フレームの画面は、フレームメモリ8に格納される(ステップS24)。
Then, the overhead
そして、前記1フレーム分の俯瞰画像(例えば、前記図5に示したような俯瞰画像)が例えば30msec間隔でフレームメモリ8から読み出され、車線検出領域設定部9により前記1フレーム分の画像に対して複数の車線検出領域(例えば、前記図6に示したような2つの車線検出領域A1,A2)をそれぞれ設定する(ステップS25)。
Then, the bird's-eye view image for one frame (for example, the bird's-eye view image as shown in FIG. 5) is read from the
そして、輝度プロファイル算出部10は、車線検出領域設定部9で設定した各車線検出領域における輝度プロファイルをそれぞれ算出する(ステップS26)。そして、車線検出部11は、前記したように輝度プロファイル算出部10から入力される輝度プロファイル情報(積分輝度の強度(ピーク値))に基づいて、路面上の車線を検出する(ステップS27)。なお、ステップS21〜S27までは、図3に示した前記フローチャートのステップS1〜S7までの処理と同様である。
Then, the luminance
ところで、各車線検出領域で検出された車線が実線(例えば、図5に示した車線23)であれば、各車線検出領域において、この車線に対応した積分輝度の強度はほぼ一定の値となる。これは、各車線検出領域において、その上から下まで車線がつながっているためである。よって、たとえ各車線検出領域の大きさが異なっていても、その大きさで規格化すれば、各車線検出領域間で車線(積分輝度)の強度をほぼ一定の値に揃えることができる。
By the way, if the lane detected in each lane detection area is a solid line (for example,
一方、各車線検出領域で検出された車線が破線(例えば、図5に示した車線25)であれば、各車線検出領域において、この車線に対応した積分輝度の強度が、時間的に変動するだけでなく各車線検出領域の位置によっても変化する。即ち、各車線検出領域間で車線(積分輝度)の強度がばらつく。
On the other hand, if the lane detected in each lane detection area is a broken line (for example,
そこで、車線種別判定部12は、各車線検出領域で検出した車線(積分輝度)の強度のばらつき量(例えば、ガウス分布における分散)を評価(ステップS28)することで、検出した車線が実線(積分輝度の強度の値がほぼ一定)であるか破線(積分輝度の強度のばらつきが大きい)であるかを判定する。 Therefore, the lane type determination unit 12 evaluates the intensity variation amount (for example, variance in Gaussian distribution) of the lane (integrated luminance) detected in each lane detection region (step S28), so that the detected lane is a solid line ( It is determined whether the integrated luminance intensity value is substantially constant) or a broken line (integrated luminance intensity variation is large).
更に、車線種別判定部12は、この判定結果に基づいて、例えば、検出した左車線(積分輝度)の強度がばらついてなくほぼ一定の値であると判定した場合(ステップS29;NO)、さらに次に、検出した右車線(積分輝度)の強度がばらついてなくほぼ一定の値であると判定した場合(ステップS30;NO)には、自車両の走行車線の両側の車線が実線で、単線(片道1車線)を走行中であると判定する(ステップS31)。
Furthermore, if the lane type determination unit 12 determines that the detected intensity of the left lane (integrated luminance) does not vary and is a substantially constant value based on the determination result (step S29; NO), Next, when it is determined that the intensity of the detected right lane (integrated luminance) does not vary and is a substantially constant value (step S30; NO), the lanes on both sides of the traveling lane of the host vehicle are solid lines and single lines It determines with driving | running | working (one
また、ステップS30で、検出した右車線(積分輝度)の強度がばらついていると判定した場合(ステップS30;YES)には、自車両の走行車線の左側(左車線)が実線で、右側(右車線)が破線で、片道2車線の左車線を走行中であると判定する(ステップS32)。 If it is determined in step S30 that the intensity of the detected right lane (integrated luminance) varies (step S30; YES), the left side (left lane) of the traveling lane of the host vehicle is a solid line and the right side (right side) It is determined that the right lane) is a broken line and the vehicle is traveling in the left lane of two lanes one way (step S32).
また、ステップS29で、検出した左車線(積分輝度)の強度がばらついていると判定した場合(ステップS29;YES)、さらに次に、検出した右車線(積分輝度)の強度がばらついてなくほぼ一定の値であると判定した場合(ステップS33;NO)には、自車両の走行車線の左側(左車線)が破線で、右側(右車線)が実線で、片道2車線の右車線を走行中であると判定する(ステップS34)。 If it is determined in step S29 that the intensity of the detected left lane (integrated luminance) varies (step S29; YES), then the intensity of the detected right lane (integrated luminance) does not vary and is almost unchanged. When it is determined that the value is constant (step S33; NO), the left side (left lane) of the traveling lane of the host vehicle is a broken line, the right side (right lane) is a solid line, and the vehicle travels in the right lane of two lanes one way. It determines with it being in (step S34).
また、ステップS33で、検出した右車線(積分輝度)の強度がばらついていると判定した場合(ステップS33;YES)には、自車両の走行車線の両側が破線で、片道3車線の中央車線を走行中であると判定する(ステップS35)。 If it is determined in step S33 that the intensity of the detected right lane (integrated luminance) varies (step S33; YES), both sides of the traveling lane of the host vehicle are broken lines, and the center lane of three lanes one way Is determined to be traveling (step S35).
このように、検出した車線(積分輝度)の強度のばらつきを評価することにより、自車両の走行車線位置を容易に、かつ正確に判定することができる。 Thus, by evaluating the variation in the intensity of the detected lane (integrated luminance), the traveling lane position of the host vehicle can be easily and accurately determined.
また、前記した本発明の実施形態に係る車線逸脱警報装置1において、横移動速度検出部は、車両に設けている車速センサから入力される自車両の車速情報と、操舵角センサから入力される自車両のステアリングの操舵角情報とに基づいて、横移動速度を検出する構成でもよい。
In the lane
また、前記した本発明の実施形態に係る車線逸脱警報装置1を、車両に搭載されるナビゲーションシステムに備えることにより、自車両の走行車線、およびこの走行車線の両側における車線の有無を精度よく検知することができるので、ナビサービスの向上(ナビゲーションシステムによる車線変更の指示など)を図ることができる。
Further, by providing the above-described lane
1 車線逸脱警報装置
2 車線検出装置
3 車線逸脱警報ユニット
4 カメラ(撮像手段)
5 車線検出ユニット
6 画像処理部
7 俯瞰画像生成部(俯瞰画像生成手段)
8 フレームメモリ
9 車線検出領域設定部(車線検出領域設定手段)
10 輝度プロファイル算出部(輝度プロファイル算出手段)
11 車線検出部(車線検出手段)
12 車線種別判定部(車線種別判定手段)
13 横移動速度検出部(横移動速度検出手段)
14 直線性判定部(直線性判定手段)
15 車両前端予測位置算出部
15a 車両傾き算出部(車両傾き算出手段)
15b 曲率半径算出部(曲率半径算出手段)
15c 位置算出部(位置算出手段)
16 車線逸脱判定部(車線逸脱判定手段)
17 警報信号出力部(警報信号出力手段)
18 スピーカ
19 表示部
20 車両(自車両)
1 Lane
5
8
10 Luminance profile calculation unit (luminance profile calculation means)
11 Lane detection unit (lane detection means)
12 Lane type determination unit (lane type determination means)
13 Lateral movement speed detector (lateral movement speed detector)
14 Linearity determination unit (linearity determination means)
15 vehicle front end predicted
15b Curvature radius calculator (curvature radius calculator)
15c Position calculation part (position calculation means)
16 Lane departure determination unit (lane departure determination means)
17 Alarm signal output section (alarm signal output means)
18
Claims (5)
前記撮像手段で撮像された画像を俯瞰画像に変形する俯瞰画像生成手段と、
前記俯瞰画像手段で生成された俯瞰画像に対して、自車両の進行方向に対して垂直に複数の車線検出領域を設定する車線検出領域設定手段と、
前記車線検出領域設定手段で設定された前記各車線検出領域に対して、路面幅方向に沿った輝度プロファイルをそれぞれ算出する輝度プロファイル算出手段と、
前記輝度プロファイル算出手段で算出された前記各輝度プロファイルに基づいて前記各車線検出領域における路面上の車線の位置を検出する車線検出手段と、
前記車線検出手段で検出した車線が実線か破線かを、前記各車線検出領域における前記輝度プロファイルの強度のばらつきに基づいて判定する車線種別判定手段と、を備えた、
ことを特徴とする車線検出装置。 Imaging means for imaging a road way-side after the vehicle,
An overhead image generation means for transforming an image captured by the imaging means into an overhead image;
Lane detection area setting means for setting a plurality of lane detection areas perpendicular to the traveling direction of the host vehicle with respect to the overhead image generated by the overhead image means;
Luminance profile calculation means for calculating a luminance profile along the road surface width direction for each lane detection area set by the lane detection area setting means,
Lane detection means for detecting the position of the lane on the road surface in each lane detection area based on each brightness profile calculated by the brightness profile calculation means;
Lane type determination means for determining whether the lane detected by the lane detection means is a solid line or a broken line, based on variations in intensity of the luminance profile in each lane detection region,
A lane detection device characterized by that.
ことを特徴とする請求項1に記載の車線検出装置。 The lane type determination means determines the traveling lane position of the host vehicle based on the lane type determination result of a solid line or a broken line with respect to the lane detected by the lane detection means,
The lane detection device according to claim 1, wherein
自車両の横移動速度を検出する横移動速度検出手段と、
車線位置に対する自車両の前端位置を予測する車両前端位置予測手段と、
前記車線検出装置の前記車線検出手段で検出された前記各車線検出領域における車線検出情報と前記横移動速度検出手段で検出された自車両の横移動速度情報および前記車両前端位置予測手段により予測された自車両の前端予測位置情報とに基づいて、自車両が車線逸脱傾向にあるか否かを判定する車線逸脱判定手段と、
前記車線逸脱判定手段により自車両が車線逸脱傾向にあると判定した場合に、警報報知手段に対して警報を報知するような警報信号を出力する警報信号出力手段と、を備えた、
ことを特徴とする車線逸脱警報装置。 A lane detection device according to claim 1 or 2,
Lateral movement speed detection means for detecting the lateral movement speed of the host vehicle;
Vehicle front end position prediction means for predicting the front end position of the host vehicle relative to the lane position;
Predicted by the lane detection information in each lane detection area detected by the lane detection means of the lane detection device, the lateral movement speed information of the own vehicle detected by the lateral movement speed detection means, and the vehicle front end position prediction means. Lane departure determining means for determining whether or not the host vehicle is in a lane departure tendency based on the predicted front end position information of the own vehicle;
An alarm signal output means for outputting an alarm signal to notify the alarm to the alarm notification means when the vehicle lane departure determination means determines that the host vehicle is in a lane departure tendency;
A lane departure warning device characterized by that.
ことを特徴とする請求項3に記載の車線逸脱警報装置。 When the vehicle front end position prediction means determines that the lane has linearity by linearity determination means for determining linearity of the lane detected by the lane detection means of the lane detection device, and the linearity determination means In addition, when the vehicle inclination calculation means for calculating the degree of inclination of the host vehicle based on the lane detection information in each lane detection area and the linearity determination means determine that the lane has no linearity, Curvature radius calculation means for calculating the curvature radius of the lane based on the lane detection information in each lane detection area, and the front end of the host vehicle with respect to the lane position based on the input information from the vehicle inclination calculation means or the curvature radius calculation means Position calculation means for predicting the position,
The lane departure warning device according to claim 3.
ことを特徴とする請求項4に記載の車線逸脱警報装置。 When the vehicle inclination calculation by the vehicle inclination calculation means calculates that the host vehicle is inclined more than a predetermined amount with respect to the lane, the warning signal output means does not determine the lane departure tendency by the lane departure determination means. Outputting an alarm signal to the alarm notification means;
The lane departure warning device according to claim 4.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006020492A JP4755501B2 (en) | 2006-01-30 | 2006-01-30 | Lane detection device and lane departure warning device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006020492A JP4755501B2 (en) | 2006-01-30 | 2006-01-30 | Lane detection device and lane departure warning device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007200191A JP2007200191A (en) | 2007-08-09 |
JP4755501B2 true JP4755501B2 (en) | 2011-08-24 |
Family
ID=38454719
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006020492A Expired - Fee Related JP4755501B2 (en) | 2006-01-30 | 2006-01-30 | Lane detection device and lane departure warning device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4755501B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101894204B1 (en) * | 2018-03-02 | 2018-08-31 | 주식회사 아이엔티코리아 | Realtime container truck monitoring method and system |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4950858B2 (en) | 2007-11-29 | 2012-06-13 | アイシン・エィ・ダブリュ株式会社 | Image recognition apparatus and image recognition program |
JP5469509B2 (en) * | 2010-03-31 | 2014-04-16 | パナソニック株式会社 | Lane position detection device and lane position detection method |
JP5680436B2 (en) * | 2011-02-15 | 2015-03-04 | アルパイン株式会社 | Foreign matter adhesion determination device for in-vehicle camera lens |
JP6057660B2 (en) * | 2012-10-19 | 2017-01-11 | アルパイン株式会社 | Lane monitoring system and lane monitoring method |
JP7314638B2 (en) * | 2019-06-14 | 2023-07-26 | オムロン株式会社 | White line detection device and method |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3181146B2 (en) * | 1993-06-30 | 2001-07-03 | マツダ株式会社 | Car safety equipment |
JP3332500B2 (en) * | 1993-10-06 | 2002-10-07 | マツダ株式会社 | Vehicle running state determination device and safety device using the same |
JPH102411A (en) * | 1996-06-12 | 1998-01-06 | Mitsubishi Motors Corp | Transmission controller for vehicular automatic transmission |
JPH10261065A (en) * | 1997-03-18 | 1998-09-29 | Fujitsu Ten Ltd | Traffic lane recognizing device |
JP2001014595A (en) * | 1999-06-29 | 2001-01-19 | Mitsubishi Motors Corp | Device for detecting traffic lane for vehicle |
JP3714116B2 (en) * | 1999-08-09 | 2005-11-09 | トヨタ自動車株式会社 | Steering stability control device |
JP2003067752A (en) * | 2001-08-28 | 2003-03-07 | Yazaki Corp | Vehicle periphery monitoring device |
JP4374211B2 (en) * | 2002-08-27 | 2009-12-02 | クラリオン株式会社 | Lane marker position detection method, lane marker position detection device, and lane departure warning device |
-
2006
- 2006-01-30 JP JP2006020492A patent/JP4755501B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101894204B1 (en) * | 2018-03-02 | 2018-08-31 | 주식회사 아이엔티코리아 | Realtime container truck monitoring method and system |
Also Published As
Publication number | Publication date |
---|---|
JP2007200191A (en) | 2007-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9056630B2 (en) | Lane departure sensing method and apparatus using images that surround a vehicle | |
US10742907B2 (en) | Camera device and method for detecting a surrounding area of a driver's own vehicle | |
US8311283B2 (en) | Method for detecting lane departure and apparatus thereof | |
KR102385280B1 (en) | Camera system and method for contextually capturing the surrounding area of a vehicle | |
JP6379779B2 (en) | Vehicle display device | |
JP2000295604A (en) | Rear and side monitoring device for vehicle | |
JP4755501B2 (en) | Lane detection device and lane departure warning device | |
JP4730131B2 (en) | Vehicle travel support device | |
US10750085B2 (en) | Camera device for capturing a surrounding area of a driver's own vehicle and method for providing a driver assistance function | |
JP2008222153A (en) | Merging support device | |
CN107004250B (en) | Image generation device and image generation method | |
JP2000172994A (en) | Obstacle alarming device for vehicle | |
CN106476695A (en) | For visual enhanced system and method | |
JP2002314989A (en) | Peripheral monitor for vehicle | |
JP5355209B2 (en) | Navigation device, determination method and determination program for traveling lane of own vehicle | |
JP2000251198A (en) | Periphery monitor device for vehicle | |
JP2000276697A (en) | Periphery monitoring device for vehicle | |
JP4968369B2 (en) | In-vehicle device and vehicle recognition method | |
JPH0981757A (en) | Vehicle position detecting device | |
JP3916930B2 (en) | Approach warning device | |
JP4687381B2 (en) | Vehicle recognition method and in-vehicle device | |
JP4269862B2 (en) | On-vehicle moving body detection device | |
JP2007022134A (en) | Lane keeping supporting device for vehicle | |
JP2008249634A (en) | Object detector | |
JP4218441B2 (en) | On-vehicle moving body detection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110524 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110527 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140603 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4755501 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |