JP4755501B2 - Lane detection device and lane departure warning device - Google Patents

Lane detection device and lane departure warning device Download PDF

Info

Publication number
JP4755501B2
JP4755501B2 JP2006020492A JP2006020492A JP4755501B2 JP 4755501 B2 JP4755501 B2 JP 4755501B2 JP 2006020492 A JP2006020492 A JP 2006020492A JP 2006020492 A JP2006020492 A JP 2006020492A JP 4755501 B2 JP4755501 B2 JP 4755501B2
Authority
JP
Japan
Prior art keywords
lane
vehicle
lane detection
detection
host vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006020492A
Other languages
Japanese (ja)
Other versions
JP2007200191A (en
Inventor
博隆 岩野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2006020492A priority Critical patent/JP4755501B2/en
Publication of JP2007200191A publication Critical patent/JP2007200191A/en
Application granted granted Critical
Publication of JP4755501B2 publication Critical patent/JP4755501B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Processing (AREA)

Description

本発明は、車載カメラからの入力画像に基づいて車線(白線)を検出する車線検出装置、および該車線検出装置を備えた車線逸脱警報装置に関する。   The present invention relates to a lane detection device that detects a lane (white line) based on an input image from an in-vehicle camera, and a lane departure warning device including the lane detection device.

自車両の走行車線の左右に位置する車線(白線)を検出する車線検出装置として、車線を車載カメラで撮像して、撮像されたカメラ画像を視点変換して俯瞰画像(平面画像)に変形し、この俯瞰画像から自車両の走行車線の左右に位置する車線(白線)を検出する装置が提案されている(例えば、特許文献1参照)。   As a lane detection device that detects lanes (white lines) located on the left and right of the driving lane of the host vehicle, the lane is imaged by an in-vehicle camera, and the captured camera image is transformed into a bird's-eye view image (planar image). There has been proposed an apparatus for detecting lanes (white lines) located on the left and right of the traveling lane of the host vehicle from this overhead image (see, for example, Patent Document 1).

前記特許文献1に記載のレーンマーカ位置検出装置(車線検出装置)では、自車両の走行車線の左右に位置する車線を車両のリアに搭載した車載カメラで撮像して、撮像されたカメラ画像を視点変換して俯瞰画像に変形し、この俯瞰画像の路面の幅方向に直交する方向の座標の輝度を積分して、この積分輝度を路面の幅方向の座標別に算出する。そして、車線に対応する強い積分輝度(輝度ピーク)を示した位置を検出して、自車両の走行車線の左右に位置する車線を検出するようにしている。   In the lane marker position detection device (lane detection device) described in Patent Document 1, lanes located on the left and right of the traveling lane of the host vehicle are imaged by an in-vehicle camera mounted on the rear of the vehicle, and the captured camera image is viewed. This is transformed into a bird's-eye view image, and the luminance of coordinates in a direction orthogonal to the width direction of the road surface of this bird's-eye view image is integrated, and this integrated luminance is calculated for each coordinate in the width direction of the road surface. And the position which showed the strong integrated brightness | luminance (luminance peak) corresponding to a lane is detected, and the lane located in the right and left of the driving lane of the own vehicle is detected.

また、前記特許文献1に記載のレーンマーカ位置検出装置(車線検出装置)を備えた車線逸脱警報装置では、このレーンマーカ位置検出装置による車線の検出結果と、横移動速度検出手段から入力される自車両の横移動速度情報に基づいて、自車両が車線から逸脱傾向にあるか否かを判定する。
特開2004−145852号公報
In the lane departure warning device provided with the lane marker position detection device (lane detection device) described in Patent Document 1, the detection result of the lane by the lane marker position detection device and the own vehicle input from the lateral movement speed detection means. It is determined whether or not the host vehicle tends to deviate from the lane based on the lateral movement speed information.
JP 2004-145852 A

ところで、前記特許文献1に記載のレーンマーカ位置検出装置の構成では、自車両の走行車線の左右に位置する車線に対して車両が平行状態であるのか、どちらか一方の車線側に向いて傾いている状態であるのかは検出することができず、更に、車線(道路)がカーブしているのか否かについても検出することができなかった。   By the way, in the configuration of the lane marker position detection device described in Patent Document 1, the vehicle is in a parallel state with respect to the lane located on the left and right of the traveling lane of the host vehicle, or is inclined toward one of the lanes. It was not possible to detect whether the vehicle is in a state of being in the vehicle, and it was not possible to detect whether the lane (road) was curved.

このため、走行している自車両がどちらか一方の車線側に向いて傾いている状態のときや、車線がカーブしている場合などにおいても、自車両とその走行車線の両側に位置する車線の位置関係を把握できるようにして、より適切な車線逸脱傾向の判定と警報を行うことができる車線逸脱警報装置が望まれていた。更に、前記特許文献1の装置のように、車両後方の路面を撮像する構成では、車両前端(フロントバンパー付近)側を撮像していないので、車両前端に対する車線逸脱傾向の判定を迅速に行うことができなかった。   For this reason, even when the traveling vehicle is tilted toward one of the lanes or when the lane is curved, the lanes located on both sides of the traveling vehicle and the traveling lane Thus, a lane departure warning device has been desired that can determine the lane departure tendency and perform a warning more appropriately. Further, in the configuration in which the road surface behind the vehicle is imaged as in the device of Patent Document 1, since the vehicle front end (near the front bumper) is not imaged, it is possible to quickly determine the lane departure tendency with respect to the vehicle front end. could not.

また、前記特許文献1に記載のレーンマーカ位置検出装置は、自車両の走行車線の左右に位置する車線を検出することができるが、片道複数車線の道路では、自車両がどの車線内(例えば、片道2車線の場合に、路側帯側の左車線か中央分離線側の右車線)を走行中かを判定することができなかった。   In addition, the lane marker position detection device described in Patent Document 1 can detect lanes located on the left and right of the traveling lane of the host vehicle. However, in a one-way multiple lane road, In the case of one-way two lanes, it could not be determined whether the vehicle is traveling in the left lane on the roadside belt side or the right lane on the center separation line side).

そこで、本発明は、走行している自車両が左右のどちらか一方の車線側に向いて傾いている状態のときや、車線(道路)がカーブしている場合などにおいても、自車両とその左右に位置する車線の位置関係を把握して、より適切な車線逸脱傾向の判定と警報を行うことができる車線検出装置および車線逸脱警報装置を提供する。また、単線や片道複数車線の道路でも自車両の走行車線位置を容易に、かつ正確に判定することができる車線検出装置を提供する。   Therefore, the present invention can be applied to the vehicle and its vehicle even when the traveling vehicle is inclined toward the left or right lane or when the lane (road) is curved. Provided are a lane detection device and a lane departure warning device capable of grasping the positional relationship between lanes located on the left and right sides, and determining and warning a more appropriate lane departure tendency. Further, the present invention provides a lane detection device that can easily and accurately determine the traveling lane position of the host vehicle even on a single-track road or a multi-lane road.

前記目的を達成するために、本発明に係る車線検出装置は、自車両の後方側の路面を撮像する撮像手段と、前記撮像手段で撮像された画像を俯瞰画像に変形する俯瞰画像生成手段と、前記俯瞰画像手段で生成された俯瞰画像に対して、自車両の進行方向に対して垂直に複数の車線検出領域を設定する車線検出領域設定手段と、前記車線検出領域設定手段で設定された前記各車線検出領域に対して、路面幅方向に沿った輝度プロファイルをそれぞれ算出する輝度プロファイル算出手段と、前記輝度プロファイル算出手段で算出された前記各輝度プロファイルに基づいて前記各車線検出領域における路面上の車線の位置を検出する車線検出手段と、前記車線検出手段で検出した車線が実線か破線かを、前記各車線検出領域における前記輝度プロファイルの強度のばらつきに基づいて判定する車線種別判定手段と、を備えたことを特徴としている。 To achieve the above object, a lane detecting device according to the present invention includes an imaging means for imaging the road way side after the vehicle, overhead image generating means for deforming the image captured by the imaging means to the overhead image Lane detection area setting means for setting a plurality of lane detection areas perpendicular to the traveling direction of the host vehicle with respect to the overhead image generated by the overhead image means, and the lane detection area setting means A luminance profile calculation means for calculating a luminance profile along the road surface width direction for each lane detection area, and each lane detection area based on each luminance profile calculated by the luminance profile calculation means. Lane detection means for detecting the position of the lane on the road surface, and whether the lane detected by the lane detection means is a solid line or a broken line, the luminance profile in each lane detection area. It is characterized and determining lane type determining means based on the variation of the intensity of yl, further comprising a.

また、本発明に係る車線逸脱警報装置は、請求項1または2に記載の車線検出装置と、
自車両の横移動速度を検出する横移動速度検出手段と、車線位置に対する自車両の前端位置を予測する車両前端位置予測手段と、前記車線検出装置の前記車線検出手段で検出された前記各車線検出領域における車線検出情報と前記横移動速度検出手段で検出された自車両の横移動速度情報および前記車両前端位置予測手段により予測された自車両の前端予測位置情報とに基づいて、自車両が車線逸脱傾向にあるか否かを判定する車線逸脱判定手段と、前記車線逸脱判定手段により自車両が車線逸脱傾向にあると判定した場合に、警報報知手段に対して警報を報知するような警報信号を出力する警報信号出力手段と、を備えたことを特徴としている。
A lane departure warning device according to the present invention includes a lane detection device according to claim 1 or 2,
Lateral movement speed detecting means for detecting the lateral movement speed of the host vehicle, vehicle front end position predicting means for predicting the front end position of the host vehicle with respect to the lane position, and each lane detected by the lane detecting means of the lane detecting device Based on the lane detection information in the detection region, the lateral movement speed information of the own vehicle detected by the lateral movement speed detection means, and the predicted front end position information of the own vehicle predicted by the vehicle front end position prediction means, A lane departure determination means for determining whether or not the vehicle is in a lane departure tendency, and an alarm for notifying the alarm notification means when the vehicle lane departure determination means determines that the host vehicle is in a lane departure tendency And an alarm signal output means for outputting a signal.

本発明に係る車線検出装置によれば、撮像手段で撮像した路面画像から生成した俯瞰画像に対して複数の車線検出領域を設定し、各車線検出領域において路面幅方向に沿って算出した輝度プロファイルに基づいて、自車両の走行車線の両側における車線を検出することができる。更に、車線検出手段で検出した車線が実線か破線かを、各車線検出領域における輝度プロファイルの強度のばらつきを評価することによって判定することができるので、この判定結果に基づいて自車両の走行車線位置を容易に、かつ正確に判定することが可能となる。   According to the lane detection device of the present invention, a plurality of lane detection areas are set for the overhead image generated from the road surface image captured by the imaging means, and the brightness profile calculated along the road surface width direction in each lane detection area Based on this, it is possible to detect lanes on both sides of the traveling lane of the host vehicle. Furthermore, since it is possible to determine whether the lane detected by the lane detection means is a solid line or a broken line by evaluating variations in the intensity of the luminance profile in each lane detection region, the traveling lane of the host vehicle is determined based on the determination result. The position can be easily and accurately determined.

また、本発明に係る車線逸脱警報装置によれば、自車両が車線逸脱傾向にあるか否かを判定する場合に、車両前端の予測位置を考慮することにより、車線に対して車両が傾いている場合や車線(道路)がカーブしている場合においても車線逸脱傾向の判定をより迅速にかつ正確に行うことが可能となり、運転者に対してより適切な警報が可能となる。   Further, according to the lane departure warning device according to the present invention, when determining whether or not the host vehicle is in a lane departure tendency, the vehicle is inclined with respect to the lane by considering the predicted position of the front end of the vehicle. Even when the vehicle is on the road or the lane (road) is curved, the lane departure tendency can be determined more quickly and accurately, and a more appropriate warning can be given to the driver.

以下、本発明を図示の実施形態に基づいて説明する。図1は、本発明の実施形態に係る車線検出装置を備えた車線逸脱警報装置を示す概略構成図である。なお、本明細書では、道路上において、車両の走行車線(車両通行帯)を区分する車線区分線としての白色や黄色などの線(一定間隔の破線等も含む)を「車線」と定義する。   Hereinafter, the present invention will be described based on the illustrated embodiments. FIG. 1 is a schematic configuration diagram illustrating a lane departure warning device including a lane detection device according to an embodiment of the present invention. In this specification, a line such as white or yellow (including broken lines at regular intervals) as a lane dividing line that divides a vehicle lane (vehicle lane) on a road is defined as a “lane”. .

図1に示すように、本実施形態に係る車線逸脱警報装置1は、この車線逸脱警報装置1を搭載した車両が走行車線から左右いずれかの車線側に逸脱傾向にあると判定したときに運転者に対して警報を行うものであり、車線検出装置2と車線逸脱警報ユニット3とを主要構成部として備えている。   As shown in FIG. 1, the lane departure warning device 1 according to this embodiment is operated when it is determined that a vehicle equipped with the lane departure warning device 1 tends to deviate from the traveling lane to the left or right lane side. A lane detector 2 and a lane departure warning unit 3 are provided as main components.

車線検出装置2は、撮像手段としてのCCDカメラ(以下、「カメラ」という)4と車線検出ユニット5とで構成されており、車線検出ユニット5は、画像処理部6、俯瞰画像生成部7、フレームメモリ8、車線検出領域設定部9、輝度プロファイル算出部10、車線検出部11および車線種別判定部12を有している。車線逸脱警報ユニット3は、横移動速度検出部13、直線性判定部14、車両前端予測位置算出部15、車線逸脱判定部16および警報信号出力部17を有している。なお、本実施形態では前記直線性判定部14と車両前端予測位置算出部15が、車両前端位置予測手段に相当する。車線逸脱警報ユニット3および車線検出ユニット5は、演算を行うマイクロプロセッサ、該マイクロプロセッサに所定の処理を実行させるためのプログラム等を記憶しているROM、演算結果などの各種データを記憶するRAM等により構成されている。   The lane detection device 2 includes a CCD camera (hereinafter referred to as “camera”) 4 as an image pickup means and a lane detection unit 5, and the lane detection unit 5 includes an image processing unit 6, an overhead image generation unit 7, A frame memory 8, a lane detection area setting unit 9, a luminance profile calculation unit 10, a lane detection unit 11, and a lane type determination unit 12 are provided. The lane departure warning unit 3 includes a lateral movement speed detection unit 13, a linearity determination unit 14, a vehicle front end predicted position calculation unit 15, a lane departure determination unit 16, and a warning signal output unit 17. In the present embodiment, the linearity determination unit 14 and the vehicle front end predicted position calculation unit 15 correspond to vehicle front end position prediction means. The lane departure warning unit 3 and the lane detection unit 5 include a microprocessor that performs calculations, a ROM that stores programs for causing the microprocessor to execute predetermined processing, a RAM that stores various data such as calculation results, and the like. It is comprised by.

カメラ4は、本実施形態では、図2に示すように、車両(自車両)20の後部に設置されており、車両20の後方下側の路面(車両後端直下付近と路面の両側周囲も含む)を撮像する。図2において、左側がこの車両20の進行方向である。このカメラ4は、例えば片道2車線道路以上でも路面幅以上の広角範囲が撮像可能な広角レンズが取付けられている。なお、この車両20に、後退車庫入れや縦列駐車するときに車両後方の撮像画像を車室内のモニタに表示する後方モニタ装置が装備されている場合には、この後方モニタ装置用のカメラを前記カメラ4として使用することもできる。また、前記カメラ4を車両20の前部側に設けて、車両前方側の路面を撮像する構成でもよい。   In this embodiment, as shown in FIG. 2, the camera 4 is installed at the rear part of the vehicle (own vehicle) 20, and the road surface on the lower rear side of the vehicle 20 (near the vehicle rear end and around both sides of the road surface) Image). In FIG. 2, the left side is the traveling direction of the vehicle 20. The camera 4 is provided with a wide-angle lens that can capture a wide-angle range that is greater than the road surface width, for example, even over a one-way two-lane road. In addition, when the vehicle 20 is equipped with a rear monitor device that displays a captured image of the rear of the vehicle on a monitor in the passenger compartment when the vehicle is reversely put into a garage or parked in parallel, the camera for the rear monitor device is attached to the vehicle 20 It can also be used as the camera 4. Moreover, the structure which provides the said camera 4 in the front part side of the vehicle 20, and images the road surface of a vehicle front side may be sufficient.

車線検出ユニット5の画像処理部6は、カメラ4からの撮像信号に基づいて車両後方下側の路面画像を生成する。なお、カメラ4は広角レンズで広角範囲を撮像するので、画像処理部6で得られる路面画像は、全体的に湾曲した画像となる。   The image processing unit 6 of the lane detection unit 5 generates a road surface image on the lower rear side of the vehicle based on the imaging signal from the camera 4. Since the camera 4 captures a wide-angle range with a wide-angle lens, the road surface image obtained by the image processing unit 6 is an entirely curved image.

俯瞰画像生成部7は、周知の手法により画像処理部6で得られた湾曲した路面画像(湾曲画像)の歪を修正処理し、かつ、視点変換(180度回転)して路面の真上から見たような俯瞰画像(平面画像)を生成する。   The bird's-eye view image generation unit 7 corrects the distortion of the curved road surface image (curved image) obtained by the image processing unit 6 by a well-known method, and performs viewpoint conversion (rotation by 180 degrees) from right above the road surface. A bird's-eye view image (planar image) as seen is generated.

フレームメモリ8は、俯瞰画像生成部7で得られた俯瞰画像の1フレーム分の画面を格納する。車線検出領域設定部9は、フレームメモリ8から読み出された俯瞰画像の画面に対して複数の車線検出領域をそれぞれ設定する(詳細は後述する)。   The frame memory 8 stores a screen for one frame of the overhead view image obtained by the overhead view image generation unit 7. The lane detection area setting unit 9 sets a plurality of lane detection areas on the screen of the overhead image read from the frame memory 8 (details will be described later).

輝度プロファイル算出部10は、車線検出領域設定部9で設定した各車線検出領域から輝度プロファイル(ヒスグラム)をそれぞれ算出し、車線検出部11は、輝度プロファイル算出部10で算出された輝度プロファイルに基づいて各車線検出領域における路面上の車線の位置を検出する(詳細は後述する)。また、車線種別判定部12は、車線検出部11で検出した車線の種別(実線か破線)を判定し、判定した車線種別(実線か破線)に基づいて自車両が現在どの走行車線(走行通行帯)に位置しているかを判定する(詳細は後述する)。 Brightness profile calculating section 10, the luminance profile from the lane detection area set by the lane detection area setting unit 9 a (His preparative grams) were calculated respectively, lane detecting unit 11, the luminance profile calculated by the brightness profile calculating section 10 Based on this, the position of the lane on the road surface in each lane detection area is detected (details will be described later). Further, the lane type determination unit 12 determines the type of lane (solid line or broken line) detected by the lane detection unit 11, and based on the determined lane type (solid line or broken line), the current lane (travel traffic) (Details will be described later).

車線逸脱警報ユニット3の横移動速度検出部13は、車線検出ユニット5の車線検出部11で検出された各車線検出領域における車線の位置(および車線種別判定部12で判定された種別)を、フレームメモリ8から例えば30msec毎に順次出力される1フレーム毎に検出することにより、1フレーム毎の車線の位置ずれ量を算出して、車両が左右どちらか一方側の車線に近づいているときの横移動速度を検出することができる。なお、1フレーム毎の車線の位置ずれ量がほぼ0の場合は、車線が直線的な場合である。   The lateral movement speed detection unit 13 of the lane departure warning unit 3 determines the lane position (and the type determined by the lane type determination unit 12) in each lane detection area detected by the lane detection unit 11 of the lane detection unit 5. By detecting every frame sequentially output from the frame memory 8 every 30 msec, for example, the amount of lane displacement for each frame is calculated, and the vehicle is approaching the left or right lane. The lateral movement speed can be detected. In addition, when the amount of positional deviation of the lane for each frame is approximately 0, the lane is a straight line.

直線性判定部14は、横移動速度検出部13から入力される車両の横移動速度情報に基づいて、車両の横移動速度がほぼ0である場合には車線が直線性を有していると判定し、車両の横移動速度が検出されている場合には車線が非直線的である(車線(道路)がカーブしている)と判定する。   The linearity determination unit 14 determines that the lane has linearity when the lateral movement speed of the vehicle is substantially zero based on the lateral movement speed information of the vehicle input from the lateral movement speed detection unit 13. If the lateral movement speed of the vehicle is detected, it is determined that the lane is non-linear (the lane (road) is curved).

車両前端予測位置算出部15は、直線性判定部14で車線が直線性を有していると判定した場合に車線に対して車両の傾き度合いを算出する車両傾き算出部15aと、直線性判定部14で車線が非直線的であると判定した場合に車線(道路)の曲率半径を算出する曲率半径算出部15bとを有し、位置算出部15cは、車両傾き算出部15aまたは曲率半径算出部15bから入力される算出結果に基づいて、車線に対する車両前端の予測位置を算出する(詳細は後述する)。   The vehicle front end predicted position calculation unit 15 includes a vehicle inclination calculation unit 15a that calculates a degree of vehicle inclination with respect to the lane when the linearity determination unit 14 determines that the lane has linearity, and linearity determination. A curvature radius calculation unit 15b that calculates a curvature radius of the lane (road) when the lane is determined to be non-linear by the unit 14, and the position calculation unit 15c is a vehicle inclination calculation unit 15a or a curvature radius calculation. Based on the calculation result input from the unit 15b, the predicted position of the vehicle front end with respect to the lane is calculated (details will be described later).

車線逸脱判定部16は、車線検出部11で検出された各車線検出領域における車線検出情報と、横移動速度検出部13から入力される車両の横移動速度情報と、車両前端予測位置算出部15から入力される車線に対する車両前端の予測位置情報とに基づいて、車両が走行車線から逸脱傾向にあるか否かを判定する。   The lane departure determination unit 16 includes lane detection information in each lane detection area detected by the lane detection unit 11, vehicle lateral movement speed information input from the lateral movement speed detection unit 13, and a vehicle front end predicted position calculation unit 15. Whether or not the vehicle tends to deviate from the traveling lane is determined based on the predicted position information of the front end of the vehicle with respect to the lane input from the vehicle.

警報信号出力部17は、車線逸脱判定部16で車両が走行車線から逸脱傾向にあると判定した場合に、車室内に設けたスピーカ18と表示部19に警報信号を出力し、スピーカ18から所定の警報音を発せさせ、表示部19に警報灯を点灯(または点滅)させる。なお、スピーカ18または表示部19のどちらか一方のみで警報を行う構成でもよい。   The warning signal output unit 17 outputs a warning signal to the speaker 18 and the display unit 19 provided in the passenger compartment when the vehicle lane departure determination unit 16 determines that the vehicle tends to deviate from the traveling lane. The warning sound is emitted and the warning light is turned on (or flashes) on the display unit 19. In addition, the structure which alarms only by either the speaker 18 or the display part 19 may be sufficient.

また、本実施形態では、車両傾き算出部15aが所定値以上の傾き値を算出した場合には、車線逸脱判定部16で車線逸脱傾向の判定を行うことなく、警報信号出力部17からスピーカ18と表示部19に警報信号をすぐに出力し、スピーカ18から所定の警報音を発せさせ、表示部19に警報灯を点灯(または点滅)させる。   Further, in this embodiment, when the vehicle inclination calculation unit 15a calculates an inclination value equal to or greater than a predetermined value, the warning signal output unit 17 does not determine the lane departure tendency and the speaker 18 outputs the lane departure determination unit 16. The alarm signal is immediately output to the display unit 19, a predetermined alarm sound is emitted from the speaker 18, and the alarm lamp is lit (or flashes) on the display unit 19.

〈車線検出処理と車線逸脱警報処理〉
次に、前記した車線逸脱警報装置1による車線検出処理、車線逸脱警報処理を、図3、図4に示すフローチャートを参照して説明する。
<Lane detection processing and lane departure warning processing>
Next, lane detection processing and lane departure warning processing by the above-described lane departure warning device 1 will be described with reference to flowcharts shown in FIGS.

先ず、走行車線を走行中の車両20(図2参照)は、車両後部のカメラ4で車両後部下側の路面を撮像し、この撮像情報(撮像信号)を車線検出ユニット5の画像処理部6に入力する(ステップS1)。画像処理部6は、入力される撮像情報(撮像信号)に基づいて車両後方下側の路面画像(全体的に湾曲した画像)を生成する(ステップS2)。   First, the vehicle 20 (see FIG. 2) traveling in the traveling lane images the road surface below the rear of the vehicle with the camera 4 at the rear of the vehicle, and this imaging information (imaging signal) is used as the image processing unit 6 of the lane detection unit 5. (Step S1). The image processing unit 6 generates a road surface image (an overall curved image) on the lower rear side of the vehicle based on the input imaging information (imaging signal) (step S2).

そして、俯瞰画像生成部7により前記路面画像の歪を修正処理し、かつ、視点変換(180度回転)して路面の真上から見たような俯瞰画像(平面画像)に変換する(ステップS3)。図5は、俯瞰画像生成部7で得られた俯瞰画像の一例である。図5において、上側が車両後部直下近傍の路面で、下側が車両20の後方側の路面であり、車両20が片道2車線道路の左側(路側帯側)の走行車線を走行している状況である。   Then, the overhead image generation unit 7 corrects the distortion of the road surface image and converts the viewpoint image (rotated 180 degrees) into an overhead image (planar image) as seen from directly above the road surface (step S3). ). FIG. 5 is an example of an overhead image obtained by the overhead image generation unit 7. In FIG. 5, the upper side is the road surface immediately below the rear of the vehicle, the lower side is the road surface on the rear side of the vehicle 20, and the vehicle 20 is traveling in the driving lane on the left side (roadside belt side) of the one-way two-lane road. is there.

なお、図5において、21は走行車線、22はその右側の隣接車線、23は路側帯24側との境界を示す実線の車線(以下、「第1車線」という)、25は走行車線21と隣接車線22との境界を示す破線状の車線(以下、「第2車線」という)、26は走行車線21上に設けた速度マーク(図では、40)である。俯瞰画像生成部7で得られた俯瞰画像(図5参照)の1フレームの画面は、フレームメモリ8に格納される(ステップS4)。   In FIG. 5, 21 is a travel lane, 22 is an adjacent lane on the right side, 23 is a solid lane indicating the boundary with the roadside belt 24 side (hereinafter referred to as “first lane”), and 25 is a travel lane 21. A broken-line lane (hereinafter referred to as “second lane”) 26 indicating a boundary with the adjacent lane 22 is a speed mark (40 in the figure) provided on the travel lane 21. The one-frame screen of the overhead image (see FIG. 5) obtained by the overhead image generation unit 7 is stored in the frame memory 8 (step S4).

そして、前記1フレーム分の画像(図5参照)が例えば30msec間隔でフレームメモリ8から読み出され、例えば、図6に示すように、車線検出領域設定部9により前記1フレーム分の画像に対して、車両の走行方向(図6では、上下方向)に沿って複数(図では、2つ)の車線検出領域A1,A2をそれぞれ設定する(ステップS5)。各車線検出領域A1,A2は、四角形状の枠で囲まれた領域であり、自車両が走行している走行車線21と、その両側に位置する路側帯24の一部および隣接車線22の一部を含む範囲まで設定されている。また、各車線検出領域A1,A2は、車両の走行方向(図6では、上下方向)に沿って所定の間隔を設けて設定されいる。   Then, the image for one frame (see FIG. 5) is read out from the frame memory 8 at intervals of, for example, 30 msec. For example, as shown in FIG. Then, a plurality (two in the figure) of lane detection areas A1 and A2 are set along the traveling direction of the vehicle (vertical direction in FIG. 6) (step S5). Each of the lane detection areas A1 and A2 is an area surrounded by a rectangular frame, and a part of the road lane 21 in which the host vehicle is traveling, a part of the roadside belt 24 located on both sides thereof, and one of the adjacent lanes 22 are provided. The range including the part is set. The lane detection areas A1 and A2 are set with a predetermined interval along the traveling direction of the vehicle (the vertical direction in FIG. 6).

そして、輝度プロファイル算出部10は、車線検出領域設定部9で設定した各車線検出領域A1,A2における輝度プロファイルをそれぞれ算出する(ステップS6)。すなわち、輝度プロファイル算出部10は、各車線検出領域A1,A2における俯瞰画像の路面の幅方向に直交する方向の座標(画素)の明るさ(輝度)を積分して、この積分輝度を路面の幅方向における座標(画素)ごとの輝度ファイルを算出する。   Then, the luminance profile calculation unit 10 calculates the luminance profiles in the lane detection areas A1 and A2 set by the lane detection area setting unit 9 (step S6). That is, the luminance profile calculation unit 10 integrates the brightness (luminance) of coordinates (pixels) in a direction orthogonal to the width direction of the road surface of the overhead image in each lane detection area A1, A2, and uses this integrated luminance for the road surface. A luminance file for each coordinate (pixel) in the width direction is calculated.

図7(a)は車線検出領域A1に対する輝度ファイル、図7(b)は車線検出領域A2に対する輝度ファイルである。図7(a)、(b)において、横軸は路面幅方向、縦軸は積分輝度の強度である。なお、図7(a)、(b)における各輝度ファイルは、ノイズ等のない理想的な状態であるが、実際にはノイズが生じている輝度ファイルとなる。   FIG. 7A shows a luminance file for the lane detection area A1, and FIG. 7B shows a luminance file for the lane detection area A2. 7A and 7B, the horizontal axis represents the road surface width direction, and the vertical axis represents the intensity of integrated luminance. Note that each luminance file in FIGS. 7A and 7B is an ideal state without noise or the like, but is actually a luminance file in which noise is generated.

そして、車線検出部11は、輝度プロファイル算出部10から入力される輝度プロファイル情報(積分輝度の強度(ピーク値))に基づいて、路面上の車線を検出する(ステップS7)。すなわち、車線検出部11は、車線検出領域A1,A2において積分輝度a1,a2が、自車両の走行車線21の両側の車線(第1車線23と第2車線25(図6参照)であることを検出する。なお、この際、車線種別判定部12により、車線検出部11で検出した車線の種別(実線か破線)を検出し、検出した車線種別(実線か破線)に基づいて自車両が現在どの走行車線(走行通行帯)に位置しているかを判定する(詳細は後述する)。   The lane detector 11 detects a lane on the road surface based on the luminance profile information (integrated luminance intensity (peak value)) input from the luminance profile calculator 10 (step S7). That is, in the lane detection unit 11, the integrated luminances a1 and a2 in the lane detection areas A1 and A2 are the lanes on both sides of the traveling lane 21 of the host vehicle (the first lane 23 and the second lane 25 (see FIG. 6)). At this time, the lane type determination unit 12 detects the type of lane (solid line or broken line) detected by the lane detection unit 11, and the vehicle is determined based on the detected lane type (solid line or broken line). It is determined which travel lane (traveling lane) is currently located (details will be described later).

そして、車線逸脱警報ユニット3の横移動速度検出部13は、前記したように車線検出部11で検出した車線(第1車線23と第2車線25)の位置を、フレームメモリ8から例えば30msec毎に順次出力される1フレーム毎に検出して、1フレーム毎の車線の位置ずれ量を算出し、この算出結果に基づいて車両の横移動速度を検出する(ステップS8)。   Then, the lateral movement speed detection unit 13 of the lane departure warning unit 3 detects the position of the lane (first lane 23 and second lane 25) detected by the lane detection unit 11 as described above from the frame memory 8, for example, every 30 msec. The lane position deviation amount for each frame is calculated for each frame that is output sequentially, and the lateral movement speed of the vehicle is detected based on the calculation result (step S8).

そして、直線性判定部14は、横移動速度検出部13から入力される車両の横移動速度情報に基づいて、車線検出部11で検出した車線(第1車線23と第2車線25)の直線性を判定する(ステップS9)。ステップS9で、車両の横移動速度がほぼ0であると算出した結果に基づいて、車線(第1車線23と第2車線25)が直線性を有していると判定した場合(ステップS10;YES)、車両傾き算出部15aは、車線に対する車両の傾き度合いを算出する(ステップS11)。   The linearity determination unit 14 then determines the straight line of the lane (first lane 23 and second lane 25) detected by the lane detection unit 11 based on the lateral movement speed information of the vehicle input from the lateral movement speed detection unit 13. The sex is determined (step S9). When it is determined in step S9 that the lane (the first lane 23 and the second lane 25) has linearity based on the calculation result that the lateral movement speed of the vehicle is substantially zero (step S10; YES), the vehicle inclination calculation unit 15a calculates the degree of inclination of the vehicle with respect to the lane (step S11).

車線に対する車両の傾きは、車線検出部11で検出した各車線検出領域A1,A2における車線の位置に基づいて算出することができる。即ち、車両が車線に対して傾いている場合(車両が車線方向に蛇行して進行してる場合)には、俯瞰画像生成部7により例えば、図8に示すような俯瞰画像が得られ、設定された各車線検出領域A1,A2も車線に対して傾いた状態となる。なお、図8に示す俯瞰画像では、走行車線の両側に位置する第1車線23,第2車線25の方が傾いているが、実際は直線的な第1車線23,第2車線25に対して車両の方が傾いている。   The inclination of the vehicle with respect to the lane can be calculated based on the position of the lane in each lane detection area A1, A2 detected by the lane detector 11. That is, when the vehicle is inclined with respect to the lane (when the vehicle is meandering in the lane direction), for example, an overhead image as shown in FIG. The lane detection areas A1 and A2 thus made are also inclined with respect to the lane. In the bird's-eye view image shown in FIG. 8, the first lane 23 and the second lane 25 located on both sides of the travel lane are inclined, but in reality, the first lane 23 and the second lane 25 that are linear The vehicle is tilted.

図9(a)、(b)に示すように、例えば車線検出領域A1,A2において、輝度ファイルの車線位置に対応した積分輝度a1,a2の位置が、車両の傾きに応じて少しずれる。図9(a)、(b)において、車線検出領域A1,A2での車線(積分輝度a1,a2)の位置ずれ量(△x)と、車線検出領域A1,A2の間隔(△y)から、車両の車線に対する傾き(tanθ=△x/△y)を算出することができる。   As shown in FIGS. 9A and 9B, for example, in the lane detection areas A1 and A2, the positions of the integrated luminances a1 and a2 corresponding to the lane positions of the luminance file are slightly shifted according to the inclination of the vehicle. 9A and 9B, from the positional deviation amount (Δx) of the lane (integrated luminances a1, a2) in the lane detection areas A1, A2, and the interval (Δy) between the lane detection areas A1, A2. The inclination of the vehicle with respect to the lane (tan θ = Δx / Δy) can be calculated.

そして、ステップS11で、車両が車線に対して傾いていると算出した場合(ステップS12;YES)において、車両の車線に対する傾きが予め設定した所定値以下(傾きが小さい)の場合(ステップS13;NO)は、位置算出部15cにより、車両傾き算出部15aから入力される算出結果に基づいて、車両長さを考慮した車線に対する車両前端の予測位置を算出する(ステップS14)。   When it is calculated in step S11 that the vehicle is inclined with respect to the lane (step S12; YES), the inclination of the vehicle with respect to the lane is equal to or smaller than a predetermined value (the inclination is small) (step S13; NO) calculates the predicted position of the front end of the vehicle with respect to the lane in consideration of the vehicle length based on the calculation result input from the vehicle inclination calculation unit 15a by the position calculation unit 15c (step S14).

即ち、本実施形態では、図2に示したように、車両20の後部にカメラ4を設置している。このため、俯瞰画像生成部7で得られる俯瞰画像は車両後方直下の画像なので、車両が傾いている場合における、車線逸脱傾向の迅速で正確な判定には、車両長さを考慮して車両前端の位置を予測する必要がある。そこで、位置算出部15cは、例えば、検出された車線の位置に対し、車両の横移動速度および車両長さを考慮して車両前端の予測位置を算出する。   That is, in this embodiment, as shown in FIG. 2, the camera 4 is installed in the rear part of the vehicle 20. For this reason, since the overhead image obtained by the overhead image generation unit 7 is an image immediately below the vehicle, the vehicle front end is taken into consideration for the vehicle length in order to quickly and accurately determine the lane departure tendency when the vehicle is tilted. It is necessary to predict the position of. Therefore, for example, the position calculation unit 15c calculates the predicted position of the vehicle front end with respect to the detected position of the lane in consideration of the lateral movement speed and the vehicle length of the vehicle.

そして、車線逸脱判定部16は、車線検出部11から入力される車線検出情報と、横移動速度検出部13から入力される横移動速度情報と、車両前端予測位置算出部15の位置算出部15cから入力される車両前端予測位置情報とに基づいて、自車両(車両20)が走行車線21から車線逸脱傾向にあるか否かを判定する(ステップS15)。   The lane departure determination unit 16 then receives the lane detection information input from the lane detection unit 11, the lateral movement speed information input from the lateral movement speed detection unit 13, and the position calculation unit 15 c of the vehicle front end predicted position calculation unit 15. Whether or not the host vehicle (vehicle 20) tends to depart from the driving lane 21 is determined based on the vehicle front end predicted position information input from (step S15).

そして、車線逸脱判定部16が車線逸脱傾向にあると判定すると(ステップS16;YES)、警報信号出力部17は、車線逸脱判定部16から入力される判定情報に基づいてスピーカ18、表示部19に警報信号を出力し(ステップS17)、スピーカ18から警報音を発せさせ、かつ表示部19に警告灯を点灯(または点滅)させる。そして、ステップS1に戻り、前記同様の処理を繰り返す。   When the lane departure determination unit 16 determines that the vehicle has a lane departure tendency (step S16; YES), the warning signal output unit 17 uses the speaker 18 and the display unit 19 based on the determination information input from the lane departure determination unit 16. An alarm signal is output (step S17), an alarm sound is emitted from the speaker 18, and a warning lamp is lit (or flashes) on the display unit 19. Then, the process returns to step S1, and the same process is repeated.

なお、ステップS16で、車線逸脱傾向にないと判定した場合は(ステップS16;NO)、警報信号出力部17からスピーカ18、表示部19に警報信号が出力されている状態であれば停止させて(ステップS18)、ステップS1に戻り、前記同様の処理を繰り返す。また、ステップS12で、車両が車線に対して傾いていないと算出した場合(ステップS12;NO)には、前記ステップS15に進む。   If it is determined in step S16 that there is no tendency to depart from the lane (step S16; NO), if the alarm signal is output from the alarm signal output unit 17 to the speaker 18 and the display unit 19, it is stopped. (Step S18), the process returns to Step S1, and the same processing is repeated. If it is calculated in step S12 that the vehicle is not inclined with respect to the lane (step S12; NO), the process proceeds to step S15.

また、ステップS13で、車両の車線に対する傾きが予め設定した所定値以上(傾きが大きい)の場合(ステップS13;YES)は、車線逸脱傾向にあると判定して、すぐにスピーカ18、表示部19に警報信号を出力し(ステップS17)、スピーカ18から警報音を発せさせ、かつ表示部19に警告灯を点灯(または点滅)させる。   In step S13, if the inclination of the vehicle with respect to the lane is equal to or greater than a predetermined value (the inclination is large) (step S13; YES), it is determined that there is a tendency to depart from the lane, and the speaker 18 and the display unit are immediately displayed. An alarm signal is output to 19 (step S17), an alarm sound is emitted from the speaker 18, and an alarm lamp is lit (or flashes) on the display unit 19.

また、ステップS10で、車線(道路)が直線性を有していない(即ち、カーブしている)と判定した場合(ステップS10;NO)、曲率半径算出部15bは、車線検出部11で検出した各車線検出領域A1,A2における車線の位置に基づいて、カーブしている車線(道路)の曲率半径を算出する(ステップS19)。   If it is determined in step S10 that the lane (road) is not linear (that is, curved) (step S10; NO), the curvature radius calculation unit 15b is detected by the lane detection unit 11. The curvature radius of the curved lane (road) is calculated based on the lane position in each lane detection area A1, A2 (step S19).

車線(道路)が所定の曲率半径でカーブしている場合は、俯瞰画像生成部7により例えば、図10に示すようなカーブした車線26、27を有する俯瞰画像が得られ、設定した複数(図では、4つ)の車線検出領域B1,B2,B3,B4において、前記同様に車線検出部11により車線26、27の位置が検出される。   When the lane (road) is curved with a predetermined radius of curvature, the overhead image generation unit 7 obtains, for example, overhead images having curved lanes 26 and 27 as shown in FIG. Then, in the four) lane detection areas B1, B2, B3, and B4, the positions of the lanes 26 and 27 are detected by the lane detection unit 11 as described above.

そして、図10に示したカーブしている車線26、27は、俯瞰図として見た場合には単純な同心円として評価できるため、各車線検出領域B1〜B4における車線26、27の位置の座標から、以下の式(円の式)に基づいてこの車線26、27の曲率半径を求めることができる。   Since the curved lanes 26 and 27 shown in FIG. 10 can be evaluated as simple concentric circles when viewed as an overhead view, the coordinates of the positions of the lanes 26 and 27 in the respective lane detection areas B1 to B4 are used. Based on the following formula (circle formula), the radii of curvature of the lanes 26 and 27 can be obtained.

(x−x)+(y−y)=r…(式1)
(x−x)+(y−y)=(r−w)…(式2)
(x 1 −x 0 ) 2 + (y 1 −y 0 ) 2 = r 2 (Formula 1)
(x 2 −x 0 ) 2 + (y 2 −y 0 ) 2 = (r−w) 2 (Formula 2)

式1は車線26側の円の式であり、式2は車線27である。なお、(x,y)は車線26側の座標、(x,y)は車線27側の座標、(x,y)は車線26、27の中心座標、rは車線26、27の曲率半径(半径)、wは車線26と車線27間の距離(幅)であり、各車線検出領域B1〜B4における車線26、27の位置において、前記式1、式2から車線26、27の中心座標(x,y)、曲率半径(r)を求めることができる。 Equation 1 is a circle equation on the lane 26 side, and Equation 2 is a lane 27. Here, (x 1 , y 1 ) are the coordinates on the lane 26 side, (x 2 , y 2 ) are the coordinates on the lane 27 side, (x 0 , y 0 ) are the center coordinates of the lanes 26 and 27, and r is the lane 26 27 is a distance (width) between the lane 26 and the lane 27, and at the position of the lanes 26 and 27 in the respective lane detection areas B1 to B4, the lane 26 from the above formulas 1 and 2 is used. , 27 center coordinates (x 0 , y 0 ) and radius of curvature (r) can be obtained.

そして、ステップS19で算出された曲率半径を有する車線(道路)におて、前記した位置算出部15cにより、車線に対する車両前端の予測位置を算出する(ステップS14)。そして、車線逸脱判定部16は、車線検出部11から入力される車線検出情報と、横移動速度検出部13から入力される横移動速度情報と、車両前端予測位置算出部15の位置算出部15cから入力される車両前端予測位置情報とに基づいて、自車両(車両20)が走行車線から車線逸脱傾向にあるか否かを判定する(ステップS15)。以下、前記したステップS16〜S18の処理を行う。   Then, the predicted position of the front end of the vehicle with respect to the lane is calculated by the position calculation unit 15c in the lane (road) having the radius of curvature calculated in step S19 (step S14). The lane departure determination unit 16 then receives the lane detection information input from the lane detection unit 11, the lateral movement speed information input from the lateral movement speed detection unit 13, and the position calculation unit 15 c of the vehicle front end predicted position calculation unit 15. Whether or not the host vehicle (vehicle 20) tends to deviate from the lane of travel is determined based on the vehicle front end predicted position information input from (step S15). Thereafter, the processes of steps S16 to S18 described above are performed.

このように、本実施形態に係る車線逸脱警報装置1によれば、車線に対して車両が傾いている場合や、車線(道路)がカーブしている場合に、車両前端の予測位置を考慮することにより、車両が車線逸脱傾向の判定をより迅速に、かつ正確に行うことができるので、運転者に対してより適切な警報を発することが可能となる。   As described above, according to the lane departure warning device 1 according to the present embodiment, when the vehicle is inclined with respect to the lane or when the lane (road) is curved, the predicted position of the front end of the vehicle is considered. As a result, the vehicle can determine the lane departure tendency more quickly and accurately, so that a more appropriate warning can be issued to the driver.

更に、直線性を有する車線に対して車両が予め設定した所定値以上に傾いている(傾きが大きい)と判定した場合は、直ちに運転者に対して強めの警報(大きめの警報音や高輝度の点灯(または点滅))を行うことにより、運転者に対して車両が車線逸脱傾向にあることを迅速に報知することが可能となる。   Furthermore, if it is determined that the vehicle is tilted above a predetermined value (large tilt) with respect to the lane having linearity, a strong warning (a large warning sound or high brightness) is immediately given to the driver. By turning on (or blinking), it is possible to promptly notify the driver that the vehicle is in a lane departure tendency.

〈多重車線の場合における車線検出〉
1本の線(白色や黄色の線)で示された車線が最も一般的であるが、路面上に複数の車線が近接して、多重車線として設けられている場合がある。例えば、図11に示すように、片道2車線の道路において、この2車線の中央に車線分離線として3本の破線状の車線28a,28b,28cが近接して、多重車線として設けられている場合がある。なお、図11において、左側の車線29は路側帯側の車線、右側の車線30は反対側車線との間に設けた中央分離車線(センターライン)である。
<Lane detection in the case of multiple lanes>
A lane indicated by a single line (white or yellow line) is the most common, but a plurality of lanes may be close to each other on the road surface and provided as multiple lanes. For example, as shown in FIG. 11, in a two-lane road, three lanes 28a, 28b, and 28c are provided as multiple lanes adjacent to each other in the center of the two lanes as lane separation lines. There is a case. In FIG. 11, the left lane 29 is a roadside belt side lane, and the right lane 30 is a central separation lane (center line) provided between the opposite lane.

この多重車線(車線28a,28b,28c)において、中央に位置する車線28aが車両の走行方向(図11では、上下方向)の破線長さが一番長く、その両側の車線28b,28cはそれより短くなっており、中央に位置する車線28aが正当な車線分離線である。   In this multiple lane (lanes 28a, 28b, 28c), the lane 28a located at the center has the longest broken line length in the vehicle traveling direction (vertical direction in FIG. 11), and the lanes 28b, 28c on both sides thereof are The lane 28a, which is shorter and located in the center, is a valid lane separation line.

以下、図11に示すような多重車線(車線28a,28b,28c)が設けられている場合における、車線検出装置2による車線検出について説明する。   Hereinafter, lane detection by the lane detection device 2 in the case where multiple lanes (lanes 28a, 28b, 28c) as shown in FIG. 11 are provided will be described.

車両後部のカメラ4(図1、図2参照)で撮像した車両後方下側の多重車線を有する路面画像は、俯瞰画像生成部7により俯瞰画像に変換し、かつ視点変換(180度回転)することにより、例えば図11に示したような多重車線(車線28a,28b,28c)を有する俯瞰画像が得られる。   A road surface image having multiple lanes on the lower rear side of the vehicle imaged by the camera 4 at the rear of the vehicle (see FIGS. 1 and 2) is converted into an overhead image by the overhead image generation unit 7 and converted into a viewpoint (rotated 180 degrees). Thus, for example, an overhead image having multiple lanes (lanes 28a, 28b, 28c) as shown in FIG. 11 is obtained.

そして、1フレーム分の俯瞰画像(図11参照)が例えば30msec間隔でフレームメモリ8から読み出され、例えば、図12に示すように、車線検出領域設定部9により前記1フレーム分の俯瞰画像に対して複数(図では、3つ)の車線検出領域C1,C2,C3をそれぞれ設定する。   Then, a bird's-eye view image for one frame (see FIG. 11) is read from the frame memory 8 at intervals of, for example, 30 msec. For example, as shown in FIG. On the other hand, a plurality (three in the figure) of lane detection areas C1, C2, and C3 are set.

各車線検出領域C1〜C3は四角形状の枠で囲まれた領域であり、車線検出領域C1は、左側の車線29から中央の車線28cの外側まで含み、かつ車両の走行方向(図12では、上下方向)に対しても広い範囲をカバーしている。また、同じ大きさの車線検出領域C2,C3は、車線検出領域C1内に位置し、車両の走行方向(図12では、上下方向)に沿って所定の間隔で設定される。車線検出領域C2,C3も、左側の車線29から中央の車線28cの外側までを含んでいる。   Each of the lane detection areas C1 to C3 is an area surrounded by a rectangular frame. The lane detection area C1 includes the left lane 29 to the outside of the center lane 28c, and the traveling direction of the vehicle (in FIG. 12, Covers a wide range (vertical direction). The lane detection areas C2 and C3 having the same size are located in the lane detection area C1, and are set at predetermined intervals along the traveling direction of the vehicle (the vertical direction in FIG. 12). The lane detection areas C2 and C3 also include from the left lane 29 to the outside of the center lane 28c.

そして、輝度プロファイル算出部10は、前記したように車線検出領域設定部9で設定した各車線検出領域C1,C2,C3における輝度プロファイルをそれぞれ算出する。   Then, the luminance profile calculation unit 10 calculates the luminance profiles in the lane detection areas C1, C2, and C3 set by the lane detection area setting unit 9 as described above.

図13(a)は車線検出領域C1に対する輝度ファイル、図13(b)は車線検出領域C3に対する輝度ファイルである。図13(a)、(b)において、横軸は路面幅方向、縦軸は積分輝度の強度である。なお、図13(a)、(b)における各輝度ファイルは、路面上においてノイズ等のない理想的な状態であるが、実際にはノイズが生じている輝度ファイルとなる。   FIG. 13A shows a luminance file for the lane detection area C1, and FIG. 13B shows a luminance file for the lane detection area C3. In FIGS. 13A and 13B, the horizontal axis represents the road surface width direction, and the vertical axis represents the intensity of the integrated luminance. Each of the luminance files in FIGS. 13A and 13B is an ideal state with no noise on the road surface, but actually is a luminance file in which noise is generated.

検出領域の狭い車線検出領域C3における輝度ファイル(図13(b)参照)の場合、車線28aに対する積分輝度b1は、その両側の車線28b,28cに対する積分輝度b2,b3よりも強度(ピーク)が小さいので、車線検出部11は、車線28b,28c(積分輝度b2,b3)を正当な車線であると誤検出したり、車線検出ができない場合がある。しかしながら、検出領域が広い車線検出領域C1における輝度ファイル(図13(a)参照)から最大ピークを探すことにより、車線検出領域C3における局所的な車線パターンの揺らぎによる影響を除去し、正当な車線である車線28a(積分輝度b1)の位置を正確に検出することができる。   In the case of a luminance file (see FIG. 13B) in the lane detection region C3 having a narrow detection region, the integrated luminance b1 for the lane 28a has an intensity (peak) higher than the integrated luminances b2 and b3 for the lanes 28b and 28c on both sides. Since it is small, the lane detector 11 may erroneously detect the lanes 28b and 28c (integrated luminances b2 and b3) as being legitimate lanes or may not be able to detect lanes. However, by searching for the maximum peak from the luminance file (see FIG. 13A) in the lane detection area C1 having a wide detection area, the influence of local lane pattern fluctuations in the lane detection area C3 is removed, and the legitimate lane It is possible to accurately detect the position of the lane 28a (integrated luminance b1).

このように、図11のような多重車線(車線28a,28b,28c)が設けられている場合でも、正当な車線28aの位置を正確に検出することができるので、前記した車両前端予測位置算出部15の車両傾き算出部15aで車線に対する車両の傾きを検出するときに、正しい車線(車線28a)に対する車両の傾きを検出することができる。   In this way, even when multiple lanes (lanes 28a, 28b, 28c) as shown in FIG. 11 are provided, the position of the legitimate lane 28a can be accurately detected. When the vehicle inclination calculation unit 15a of the unit 15 detects the inclination of the vehicle with respect to the lane, the inclination of the vehicle with respect to the correct lane (lane 28a) can be detected.

〈車線種別の判定処理〉
前記した車線検出装置2の車線種別判定部12(図1参照)は、車線検出部11で検出した車線の種別(実線か破線)を判定し、判定した車線種別(実線か破線)に基づいて自車両が現在どの走行車線(走行通行帯)に位置しているかを判定するすることができる。
<Determination processing of lane type>
The lane type determination unit 12 (see FIG. 1) of the lane detection device 2 described above determines the lane type (solid line or broken line) detected by the lane detection unit 11, and based on the determined lane type (solid line or broken line). It can be determined in which lane (traveling lane) the host vehicle is currently located.

以下、車線種別(実線か破線)の判定による自車両の走行車線位置の判定処理を、図14に示すフローチャートを参照して説明する。なお、図14に示す走行車線位置の判定処理では、自車両の走行車線の両側が実線の車線であれば、単線(片道1車線)と判定し、自車両の走行車線の左側(左車線)が実線で右側(右車線)が破線であれば、片道2車線の左車線と判定し、また、自車両の走行車線の左側(左車線)が破線で右側(右車線)が実線であれば、片道2車線の右車線と判定し、さらに、自車両の走行車線の左側(左車線)が破線で右側(右車線)も破線であれば、片道3車線の中央車線と判定するように設定している。   Hereinafter, the determination processing of the traveling lane position of the own vehicle by determining the lane type (solid line or broken line) will be described with reference to the flowchart shown in FIG. In the travel lane position determination process shown in FIG. 14, if both sides of the travel lane of the host vehicle are solid lanes, it is determined as a single line (one lane in one way), and the left side (left lane) of the travel lane of the host vehicle. If is a solid line and the right side (right lane) is a broken line, it is determined as a left lane of two lanes in one way, and if the left side (left lane) of the driving lane of the host vehicle is a broken line and the right side (right lane) is a solid line If the left lane (left lane) is the broken line and the right lane (right lane) is also a broken line, the vehicle is determined to be the center lane of 3 lanes. is doing.

先ず、車両後部のカメラ4で車両後部下側の路面を撮像し、この撮像情報(撮像信号)を車線検出ユニット5の画像処理部6に入力する(ステップS21)。画像処理部6は、入力される撮像情報(撮像信号)に基づいて車両後方下側の路面画像(全体的に湾曲した画像)を生成する(ステップS22)。   First, the camera 4 at the rear of the vehicle images the road surface below the rear of the vehicle, and this imaging information (imaging signal) is input to the image processing unit 6 of the lane detection unit 5 (step S21). The image processing unit 6 generates a road surface image (an overall curved image) on the lower rear side of the vehicle based on the input imaging information (imaging signal) (step S22).

そして、俯瞰画像生成部7により前記路面画像の歪を修正処理し、かつ、視点変換(180度回転)して路面の真上から見たような俯瞰画像に変換する(ステップS23)。俯瞰画像生成部7で得られた俯瞰画像(例えば、前記図5に示したような俯瞰画像)の1フレームの画面は、フレームメモリ8に格納される(ステップS24)。   Then, the overhead image generation unit 7 corrects the distortion of the road surface image and converts the viewpoint image (rotated 180 degrees) into an overhead image as seen from right above the road surface (step S23). A one-frame screen of the overhead image (for example, the overhead image as shown in FIG. 5) obtained by the overhead image generation unit 7 is stored in the frame memory 8 (step S24).

そして、前記1フレーム分の俯瞰画像(例えば、前記図5に示したような俯瞰画像)が例えば30msec間隔でフレームメモリ8から読み出され、車線検出領域設定部9により前記1フレーム分の画像に対して複数の車線検出領域(例えば、前記図6に示したような2つの車線検出領域A1,A2)をそれぞれ設定する(ステップS25)。   Then, the bird's-eye view image for one frame (for example, the bird's-eye view image as shown in FIG. 5) is read from the frame memory 8 at intervals of 30 msec, for example, and the lane detection area setting unit 9 converts the image into the image for one frame. On the other hand, a plurality of lane detection areas (for example, two lane detection areas A1 and A2 as shown in FIG. 6) are set (step S25).

そして、輝度プロファイル算出部10は、車線検出領域設定部9で設定した各車線検出領域における輝度プロファイルをそれぞれ算出する(ステップS26)。そして、車線検出部11は、前記したように輝度プロファイル算出部10から入力される輝度プロファイル情報(積分輝度の強度(ピーク値))に基づいて、路面上の車線を検出する(ステップS27)。なお、ステップS21〜S27までは、図3に示した前記フローチャートのステップS1〜S7までの処理と同様である。   Then, the luminance profile calculation unit 10 calculates the luminance profile in each lane detection region set by the lane detection region setting unit 9 (step S26). The lane detector 11 detects a lane on the road surface based on the luminance profile information (integrated luminance intensity (peak value)) input from the luminance profile calculator 10 as described above (step S27). Steps S21 to S27 are the same as steps S1 to S7 in the flowchart shown in FIG.

ところで、各車線検出領域で検出された車線が実線(例えば、図5に示した車線23)であれば、各車線検出領域において、この車線に対応した積分輝度の強度はほぼ一定の値となる。これは、各車線検出領域において、その上から下まで車線がつながっているためである。よって、たとえ各車線検出領域の大きさが異なっていても、その大きさで規格化すれば、各車線検出領域間で車線(積分輝度)の強度をほぼ一定の値に揃えることができる。   By the way, if the lane detected in each lane detection area is a solid line (for example, lane 23 shown in FIG. 5), the intensity of integrated luminance corresponding to this lane has a substantially constant value in each lane detection area. . This is because the lanes are connected from the top to the bottom in each lane detection region. Therefore, even if the sizes of the respective lane detection areas are different, the lane (integrated luminance) intensity can be set to a substantially constant value between the respective lane detection areas if standardized by the size.

一方、各車線検出領域で検出された車線が破線(例えば、図5に示した車線25)であれば、各車線検出領域において、この車線に対応した積分輝度の強度が、時間的に変動するだけでなく各車線検出領域の位置によっても変化する。即ち、各車線検出領域間で車線(積分輝度)の強度がばらつく。   On the other hand, if the lane detected in each lane detection area is a broken line (for example, lane 25 shown in FIG. 5), the intensity of integrated luminance corresponding to this lane fluctuates with time in each lane detection area. Not only changes depending on the position of each lane detection area. That is, the intensity of the lane (integrated luminance) varies between the lane detection areas.

そこで、車線種別判定部12は、各車線検出領域で検出した車線(積分輝度)の強度のばらつき量(例えば、ガウス分布における分散)を評価(ステップS28)することで、検出した車線が実線(積分輝度の強度の値がほぼ一定)であるか破線(積分輝度の強度のばらつきが大きい)であるかを判定する。   Therefore, the lane type determination unit 12 evaluates the intensity variation amount (for example, variance in Gaussian distribution) of the lane (integrated luminance) detected in each lane detection region (step S28), so that the detected lane is a solid line ( It is determined whether the integrated luminance intensity value is substantially constant) or a broken line (integrated luminance intensity variation is large).

更に、車線種別判定部12は、この判定結果に基づいて、例えば、検出した左車線(積分輝度)の強度がばらついてなくほぼ一定の値であると判定した場合(ステップS29;NO)、さらに次に、検出した右車線(積分輝度)の強度がばらついてなくほぼ一定の値であると判定した場合(ステップS30;NO)には、自車両の走行車線の両側の車線が実線で、単線(片道1車線)を走行中であると判定する(ステップS31)。   Furthermore, if the lane type determination unit 12 determines that the detected intensity of the left lane (integrated luminance) does not vary and is a substantially constant value based on the determination result (step S29; NO), Next, when it is determined that the intensity of the detected right lane (integrated luminance) does not vary and is a substantially constant value (step S30; NO), the lanes on both sides of the traveling lane of the host vehicle are solid lines and single lines It determines with driving | running | working (one way 1 lane) (step S31).

また、ステップS30で、検出した右車線(積分輝度)の強度がばらついていると判定した場合(ステップS30;YES)には、自車両の走行車線の左側(左車線)が実線で、右側(右車線)が破線で、片道2車線の左車線を走行中であると判定する(ステップS32)。   If it is determined in step S30 that the intensity of the detected right lane (integrated luminance) varies (step S30; YES), the left side (left lane) of the traveling lane of the host vehicle is a solid line and the right side (right side) It is determined that the right lane) is a broken line and the vehicle is traveling in the left lane of two lanes one way (step S32).

また、ステップS29で、検出した左車線(積分輝度)の強度がばらついていると判定した場合(ステップS29;YES)、さらに次に、検出した右車線(積分輝度)の強度がばらついてなくほぼ一定の値であると判定した場合(ステップS33;NO)には、自車両の走行車線の左側(左車線)が破線で、右側(右車線)が実線で、片道2車線の右車線を走行中であると判定する(ステップS34)。   If it is determined in step S29 that the intensity of the detected left lane (integrated luminance) varies (step S29; YES), then the intensity of the detected right lane (integrated luminance) does not vary and is almost unchanged. When it is determined that the value is constant (step S33; NO), the left side (left lane) of the traveling lane of the host vehicle is a broken line, the right side (right lane) is a solid line, and the vehicle travels in the right lane of two lanes one way. It determines with it being in (step S34).

また、ステップS33で、検出した右車線(積分輝度)の強度がばらついていると判定した場合(ステップS33;YES)には、自車両の走行車線の両側が破線で、片道3車線の中央車線を走行中であると判定する(ステップS35)。   If it is determined in step S33 that the intensity of the detected right lane (integrated luminance) varies (step S33; YES), both sides of the traveling lane of the host vehicle are broken lines, and the center lane of three lanes one way Is determined to be traveling (step S35).

このように、検出した車線(積分輝度)の強度のばらつきを評価することにより、自車両の走行車線位置を容易に、かつ正確に判定することができる。   Thus, by evaluating the variation in the intensity of the detected lane (integrated luminance), the traveling lane position of the host vehicle can be easily and accurately determined.

また、前記した本発明の実施形態に係る車線逸脱警報装置1において、横移動速度検出部は、車両に設けている車速センサから入力される自車両の車速情報と、操舵角センサから入力される自車両のステアリングの操舵角情報とに基づいて、横移動速度を検出する構成でもよい。   In the lane departure warning device 1 according to the above-described embodiment of the present invention, the lateral movement speed detection unit is input from the vehicle speed information of the host vehicle input from the vehicle speed sensor provided in the vehicle and the steering angle sensor. A configuration in which the lateral movement speed is detected based on the steering angle information of the steering of the host vehicle may be used.

また、前記した本発明の実施形態に係る車線逸脱警報装置1を、車両に搭載されるナビゲーションシステムに備えることにより、自車両の走行車線、およびこの走行車線の両側における車線の有無を精度よく検知することができるので、ナビサービスの向上(ナビゲーションシステムによる車線変更の指示など)を図ることができる。   Further, by providing the above-described lane departure warning device 1 according to the embodiment of the present invention in a navigation system mounted on a vehicle, it is possible to accurately detect the traveling lane of the host vehicle and the presence or absence of lanes on both sides of the traveling lane. Therefore, it is possible to improve navigation services (such as instructions for changing lanes using the navigation system).

本発明の実施形態に係る車線検出装置を備えた車線逸脱警報装置を示す概略構成図。The schematic block diagram which shows the lane departure warning apparatus provided with the lane detection apparatus which concerns on embodiment of this invention. 後部にカメラを設置した車両を示す図。The figure which shows the vehicle which installed the camera in the rear part. 本発明の実施形態に係る車線逸脱警報装置による車線検出処理と車線逸脱警報処理を示すフローチャート。The flowchart which shows the lane detection process by the lane departure warning apparatus which concerns on embodiment of this invention, and a lane departure warning process. 本発明の実施形態に係る車線逸脱警報装置による車線検出処理と車線逸脱警報処理を示すフローチャート。The flowchart which shows the lane detection process by the lane departure warning apparatus which concerns on embodiment of this invention, and a lane departure warning process. カメラで撮像した路面画像を俯瞰変形し、かつ視点変換(180度回転)した俯瞰画像の一例を示す図。The figure which shows an example of the bird's-eye view image which carried out bird's-eye view deformation | transformation of the road surface image imaged with the camera, and changed viewpoint (180 degree rotation). 図5の俯瞰画像の画面内に設定した各車線検出領域を示す図。The figure which shows each lane detection area | region set in the screen of the bird's-eye view image of FIG. (a)は、図6の車線検出領域A1における輝度ファイルを示す図、(b)は、図6の車線検出領域A2における輝度ファイルを示す図。(A) is a figure which shows the luminance file in lane detection area A1 of FIG. 6, (b) is a figure which shows the luminance file in lane detection area A2 of FIG. 車両が傾いている場合における、俯瞰画像の画面内に設定した各車線検出領域を示す図。The figure which shows each lane detection area | region set in the screen of a bird's-eye view image when a vehicle inclines. (a)は、図8の車線検出領域A1における輝度ファイルを示す図、(b)は、図8の車線検出領域A2における輝度ファイルを示す図。(A) is a figure which shows the luminance file in lane detection area A1 of FIG. 8, (b) is a figure which shows the luminance file in lane detection area A2 of FIG. 車線(道路)がカーブしている場合における、俯瞰画像の画面内に設定した各車線検出領域を示す図。The figure which shows each lane detection area | region set in the screen of a bird's-eye view image when the lane (road) is curving. 多重車線を有している場合の俯瞰画像の一例を示す図。The figure which shows an example of the bird's-eye view image in the case of having a multiple lane. 多重車線を有している場合における、俯瞰画像の画面内に設定した各車線検出領域を示す図。The figure which shows each lane detection area | region set in the screen of a bird's-eye view image in the case of having a multiple lane. (a)は、図12の車線検出領域C1における輝度ファイルを示す図、(b)は、図12の車線検出領域C3における輝度ファイルを示す図。(A) is a figure which shows the luminance file in the lane detection area C1 of FIG. 12, (b) is a figure which shows the luminance file in the lane detection area C3 of FIG. 車線種別(実線、破線)の検出による自車両の走行車線位置の判定処理を示すフローチャート。The flowchart which shows the determination process of the driving | running | working lane position of the own vehicle by the detection of lane classification (a continuous line, a broken line).

符号の説明Explanation of symbols

1 車線逸脱警報装置
2 車線検出装置
3 車線逸脱警報ユニット
4 カメラ(撮像手段)
5 車線検出ユニット
6 画像処理部
7 俯瞰画像生成部(俯瞰画像生成手段)
8 フレームメモリ
9 車線検出領域設定部(車線検出領域設定手段)
10 輝度プロファイル算出部(輝度プロファイル算出手段)
11 車線検出部(車線検出手段)
12 車線種別判定部(車線種別判定手段)
13 横移動速度検出部(横移動速度検出手段)
14 直線性判定部(直線性判定手段)
15 車両前端予測位置算出部
15a 車両傾き算出部(車両傾き算出手段)
15b 曲率半径算出部(曲率半径算出手段)
15c 位置算出部(位置算出手段)
16 車線逸脱判定部(車線逸脱判定手段)
17 警報信号出力部(警報信号出力手段)
18 スピーカ
19 表示部
20 車両(自車両)
1 Lane departure warning device 2 Lane detection device 3 Lane departure warning unit 4 Camera (imaging means)
5 Lane detection unit 6 Image processing unit 7 Overhead image generation unit (overhead image generation means)
8 Frame memory 9 Lane detection area setting section (lane detection area setting means)
10 Luminance profile calculation unit (luminance profile calculation means)
11 Lane detection unit (lane detection means)
12 Lane type determination unit (lane type determination means)
13 Lateral movement speed detector (lateral movement speed detector)
14 Linearity determination unit (linearity determination means)
15 vehicle front end predicted position calculation unit 15a vehicle inclination calculation unit (vehicle inclination calculation means)
15b Curvature radius calculator (curvature radius calculator)
15c Position calculation part (position calculation means)
16 Lane departure determination unit (lane departure determination means)
17 Alarm signal output section (alarm signal output means)
18 Speaker 19 Display unit 20 Vehicle (own vehicle)

Claims (5)

自車両の後方側の路面を撮像する撮像手段と、
前記撮像手段で撮像された画像を俯瞰画像に変形する俯瞰画像生成手段と、
前記俯瞰画像手段で生成された俯瞰画像に対して、自車両の進行方向に対して垂直に複数の車線検出領域を設定する車線検出領域設定手段と、
前記車線検出領域設定手段で設定された前記各車線検出領域に対して、路面幅方向に沿った輝度プロファイルをそれぞれ算出する輝度プロファイル算出手段と、
前記輝度プロファイル算出手段で算出された前記各輝度プロファイルに基づいて前記各車線検出領域における路面上の車線の位置を検出する車線検出手段と、
前記車線検出手段で検出した車線が実線か破線かを、前記各車線検出領域における前記輝度プロファイルの強度のばらつきに基づいて判定する車線種別判定手段と、を備えた、
ことを特徴とする車線検出装置。
Imaging means for imaging a road way-side after the vehicle,
An overhead image generation means for transforming an image captured by the imaging means into an overhead image;
Lane detection area setting means for setting a plurality of lane detection areas perpendicular to the traveling direction of the host vehicle with respect to the overhead image generated by the overhead image means;
Luminance profile calculation means for calculating a luminance profile along the road surface width direction for each lane detection area set by the lane detection area setting means,
Lane detection means for detecting the position of the lane on the road surface in each lane detection area based on each brightness profile calculated by the brightness profile calculation means;
Lane type determination means for determining whether the lane detected by the lane detection means is a solid line or a broken line, based on variations in intensity of the luminance profile in each lane detection region,
A lane detection device characterized by that.
前記車線種別判定手段は、前記車線検出手段で検出した車線に対する、実線か破線かの車線種別判定結果に基づいて自車両の走行車線位置を判定する、
ことを特徴とする請求項1に記載の車線検出装置。
The lane type determination means determines the traveling lane position of the host vehicle based on the lane type determination result of a solid line or a broken line with respect to the lane detected by the lane detection means,
The lane detection device according to claim 1, wherein
請求項1または2に記載の車線検出装置と、
自車両の横移動速度を検出する横移動速度検出手段と、
車線位置に対する自車両の前端位置を予測する車両前端位置予測手段と、
前記車線検出装置の前記車線検出手段で検出された前記各車線検出領域における車線検出情報と前記横移動速度検出手段で検出された自車両の横移動速度情報および前記車両前端位置予測手段により予測された自車両の前端予測位置情報とに基づいて、自車両が車線逸脱傾向にあるか否かを判定する車線逸脱判定手段と、
前記車線逸脱判定手段により自車両が車線逸脱傾向にあると判定した場合に、警報報知手段に対して警報を報知するような警報信号を出力する警報信号出力手段と、を備えた、
ことを特徴とする車線逸脱警報装置。
A lane detection device according to claim 1 or 2,
Lateral movement speed detection means for detecting the lateral movement speed of the host vehicle;
Vehicle front end position prediction means for predicting the front end position of the host vehicle relative to the lane position;
Predicted by the lane detection information in each lane detection area detected by the lane detection means of the lane detection device, the lateral movement speed information of the own vehicle detected by the lateral movement speed detection means, and the vehicle front end position prediction means. Lane departure determining means for determining whether or not the host vehicle is in a lane departure tendency based on the predicted front end position information of the own vehicle;
An alarm signal output means for outputting an alarm signal to notify the alarm to the alarm notification means when the vehicle lane departure determination means determines that the host vehicle is in a lane departure tendency;
A lane departure warning device characterized by that.
前記車両前端位置予測手段は、前記車線検出装置の前記車線検出手段で検出された車線の直線性を判定する直線性判定手段と、前記直線性判定手段で車線が直線性を有すると判定した場合に、前記各車線検出領域における車線検出情報に基づいて自車両の傾き度合いを算出する車両傾き算出手段と、前記直線性判定手段で車線が直線性を有していないと判定した場合に、前記各車線検出領域における車線検出情報に基づいて車線の曲率半径を算出する曲率半径算出手段と、前記車両傾き算出手段または前記曲率半径算出手段からの入力情報に基づいて、車線位置に対する自車両の前端位置を予測する位置算出手段と、を有する、
ことを特徴とする請求項3に記載の車線逸脱警報装置。
When the vehicle front end position prediction means determines that the lane has linearity by linearity determination means for determining linearity of the lane detected by the lane detection means of the lane detection device, and the linearity determination means In addition, when the vehicle inclination calculation means for calculating the degree of inclination of the host vehicle based on the lane detection information in each lane detection area and the linearity determination means determine that the lane has no linearity, Curvature radius calculation means for calculating the curvature radius of the lane based on the lane detection information in each lane detection area, and the front end of the host vehicle with respect to the lane position based on the input information from the vehicle inclination calculation means or the curvature radius calculation means Position calculation means for predicting the position,
The lane departure warning device according to claim 3.
前記車両傾き算出手段による車両傾き算出で、自車両が車線に対して所定以上傾いていると算出した場合は、前記車線逸脱判定手段で車線逸脱傾向の判定を行うことなく前記警報信号出力手段から前記警報報知手段に警報信号を出力する、
ことを特徴とする請求項4に記載の車線逸脱警報装置。
When the vehicle inclination calculation by the vehicle inclination calculation means calculates that the host vehicle is inclined more than a predetermined amount with respect to the lane, the warning signal output means does not determine the lane departure tendency by the lane departure determination means. Outputting an alarm signal to the alarm notification means;
The lane departure warning device according to claim 4.
JP2006020492A 2006-01-30 2006-01-30 Lane detection device and lane departure warning device Expired - Fee Related JP4755501B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006020492A JP4755501B2 (en) 2006-01-30 2006-01-30 Lane detection device and lane departure warning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006020492A JP4755501B2 (en) 2006-01-30 2006-01-30 Lane detection device and lane departure warning device

Publications (2)

Publication Number Publication Date
JP2007200191A JP2007200191A (en) 2007-08-09
JP4755501B2 true JP4755501B2 (en) 2011-08-24

Family

ID=38454719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006020492A Expired - Fee Related JP4755501B2 (en) 2006-01-30 2006-01-30 Lane detection device and lane departure warning device

Country Status (1)

Country Link
JP (1) JP4755501B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101894204B1 (en) * 2018-03-02 2018-08-31 주식회사 아이엔티코리아 Realtime container truck monitoring method and system

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4950858B2 (en) 2007-11-29 2012-06-13 アイシン・エィ・ダブリュ株式会社 Image recognition apparatus and image recognition program
JP5469509B2 (en) * 2010-03-31 2014-04-16 パナソニック株式会社 Lane position detection device and lane position detection method
JP5680436B2 (en) * 2011-02-15 2015-03-04 アルパイン株式会社 Foreign matter adhesion determination device for in-vehicle camera lens
JP6057660B2 (en) * 2012-10-19 2017-01-11 アルパイン株式会社 Lane monitoring system and lane monitoring method
JP7314638B2 (en) * 2019-06-14 2023-07-26 オムロン株式会社 White line detection device and method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3181146B2 (en) * 1993-06-30 2001-07-03 マツダ株式会社 Car safety equipment
JP3332500B2 (en) * 1993-10-06 2002-10-07 マツダ株式会社 Vehicle running state determination device and safety device using the same
JPH102411A (en) * 1996-06-12 1998-01-06 Mitsubishi Motors Corp Transmission controller for vehicular automatic transmission
JPH10261065A (en) * 1997-03-18 1998-09-29 Fujitsu Ten Ltd Traffic lane recognizing device
JP2001014595A (en) * 1999-06-29 2001-01-19 Mitsubishi Motors Corp Device for detecting traffic lane for vehicle
JP3714116B2 (en) * 1999-08-09 2005-11-09 トヨタ自動車株式会社 Steering stability control device
JP2003067752A (en) * 2001-08-28 2003-03-07 Yazaki Corp Vehicle periphery monitoring device
JP4374211B2 (en) * 2002-08-27 2009-12-02 クラリオン株式会社 Lane marker position detection method, lane marker position detection device, and lane departure warning device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101894204B1 (en) * 2018-03-02 2018-08-31 주식회사 아이엔티코리아 Realtime container truck monitoring method and system

Also Published As

Publication number Publication date
JP2007200191A (en) 2007-08-09

Similar Documents

Publication Publication Date Title
US9056630B2 (en) Lane departure sensing method and apparatus using images that surround a vehicle
US10742907B2 (en) Camera device and method for detecting a surrounding area of a driver&#39;s own vehicle
US8311283B2 (en) Method for detecting lane departure and apparatus thereof
KR102385280B1 (en) Camera system and method for contextually capturing the surrounding area of a vehicle
JP6379779B2 (en) Vehicle display device
JP2000295604A (en) Rear and side monitoring device for vehicle
JP4755501B2 (en) Lane detection device and lane departure warning device
JP4730131B2 (en) Vehicle travel support device
US10750085B2 (en) Camera device for capturing a surrounding area of a driver&#39;s own vehicle and method for providing a driver assistance function
JP2008222153A (en) Merging support device
CN107004250B (en) Image generation device and image generation method
JP2000172994A (en) Obstacle alarming device for vehicle
CN106476695A (en) For visual enhanced system and method
JP2002314989A (en) Peripheral monitor for vehicle
JP5355209B2 (en) Navigation device, determination method and determination program for traveling lane of own vehicle
JP2000251198A (en) Periphery monitor device for vehicle
JP2000276697A (en) Periphery monitoring device for vehicle
JP4968369B2 (en) In-vehicle device and vehicle recognition method
JPH0981757A (en) Vehicle position detecting device
JP3916930B2 (en) Approach warning device
JP4687381B2 (en) Vehicle recognition method and in-vehicle device
JP4269862B2 (en) On-vehicle moving body detection device
JP2007022134A (en) Lane keeping supporting device for vehicle
JP2008249634A (en) Object detector
JP4218441B2 (en) On-vehicle moving body detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110524

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110527

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140603

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4755501

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees