JP5959245B2 - Lane mark detection device and lane mark reliability calculation method - Google Patents

Lane mark detection device and lane mark reliability calculation method Download PDF

Info

Publication number
JP5959245B2
JP5959245B2 JP2012057155A JP2012057155A JP5959245B2 JP 5959245 B2 JP5959245 B2 JP 5959245B2 JP 2012057155 A JP2012057155 A JP 2012057155A JP 2012057155 A JP2012057155 A JP 2012057155A JP 5959245 B2 JP5959245 B2 JP 5959245B2
Authority
JP
Japan
Prior art keywords
lane mark
evaluation value
distance
calculation unit
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012057155A
Other languages
Japanese (ja)
Other versions
JP2013191040A (en
Inventor
橋本 真也
真也 橋本
渡辺 隆行
隆行 渡辺
康介 棟方
康介 棟方
重之 酒井
重之 酒井
裕樹 大場
裕樹 大場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2012057155A priority Critical patent/JP5959245B2/en
Publication of JP2013191040A publication Critical patent/JP2013191040A/en
Application granted granted Critical
Publication of JP5959245B2 publication Critical patent/JP5959245B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、レーンマーク検出装置およびレーンマークの信頼度算出方法に関し、特に、カメラにより撮影された画像の処理によって路上のレーンマークを検出する装置に用いて好適なものである。   The present invention relates to a lane mark detection apparatus and a lane mark reliability calculation method, and is particularly suitable for use in an apparatus that detects a lane mark on a road by processing an image photographed by a camera.

従来、カメラにより撮影された画像の処理によって路上のレーンマーク(車線境界線)を検出するレーンマーク検出装置およびこれを用いた車線逸脱警報装置が提供されている。この種のレーンマーク検出装置では一般的に、撮影画像の中から画像処理によってレーンマーク候補を抽出し、抽出したレーンマーク候補の中から信頼度が高いものをレーンマークとして検出するようになされている(例えば、特許文献1〜4参照)。   2. Description of the Related Art Conventionally, a lane mark detection device that detects a lane mark (lane boundary line) on a road by processing an image photographed by a camera, and a lane departure warning device using the same are provided. In this type of lane mark detection apparatus, generally, lane mark candidates are extracted from captured images by image processing, and the extracted lane mark candidates having high reliability are detected as lane marks. (For example, see Patent Documents 1 to 4).

特許文献1に記載の技術では、画像から抽出した±エッジ点(レーンの両側に持つ符号の異なるエッジ点)より成る直線が平行で、直線の傾きが所定範囲内である場合に、白線検出成功と判断している。特許文献2に記載の技術では、エッジ画像から抽出した縦エッジの連続長さが破線レーンマークを構成する複数の白線部分の長さに相当する範囲内であって、連続した横エッジと繋がっている場合に、破線レーンマークであると判断している。   In the technique described in Patent Document 1, when a straight line composed of ± edge points (edge points having different signs on both sides of a lane) extracted from an image is parallel and the straight line has a slope within a predetermined range, white line detection is successful. Judging. In the technique described in Patent Document 2, the continuous length of the vertical edges extracted from the edge image is within a range corresponding to the lengths of a plurality of white line portions constituting the broken line lane mark, and is connected to the continuous horizontal edges. If it is, it is determined that the lane mark is a broken line.

特許文献3に記載の技術では、白線候補点の数、白線候補点を検出する際に用いたエッジ画像の極大値および極小値の強度、白線候補周囲の輝度のコントラストなどから確信度を算出し、確信度が高いものを白線として検出している。特許文献4に記載の技術では、撮影した画像から認識したレーンマークに基づいて画像を複数のエリアに分割し、分割されたエリア毎にレーンマークの信頼度を算出し、エリア別信頼度情報を出力するようにしている。   In the technique described in Patent Document 3, the certainty factor is calculated from the number of white line candidate points, the intensity of the maximum and minimum values of the edge image used when detecting the white line candidate points, the brightness contrast around the white line candidates, and the like. A thing with high certainty is detected as a white line. In the technique described in Patent Document 4, the image is divided into a plurality of areas based on the lane mark recognized from the captured image, the reliability of the lane mark is calculated for each divided area, and the reliability information for each area is obtained. I am trying to output.

以上のようなレーンマーク検出装置を用いた車線逸脱警報装置では、レーンマーク検出装置により検出されたレーンマークを跨いで車両が車線から逸脱するおそれがある場合に、警報を発するようになされている。従来、この警報を適切に行うために、レーンマークを確実かつ正確に検出することが求められている。   In the lane departure warning device using the lane mark detection device as described above, a warning is issued when the vehicle may depart from the lane across the lane mark detected by the lane mark detection device. . Conventionally, in order to perform this warning appropriately, it is required to detect the lane mark reliably and accurately.

特開平7−78234号公報JP-A-7-78234 特開2004−326214号公報JP 2004-326214 A 特開2005−18148号公報JP 2005-18148 A 特開2011−73529号公報JP 2011-73529 A

上記特許文献1〜3に記載の技術では、撮影画像内から抽出した被写体がレーンマークの形状をしているか否か、周囲との輝度のコントラストが大きいか否かを判定しているため、形状やコントラストに関する信頼度は高くなる。これにより、形状やコントラストに関して信頼度が高い部分を画像内からレーンマークとして検出することが可能である。   In the techniques described in Patent Documents 1 to 3, since it is determined whether or not the subject extracted from the captured image has a lane mark shape and whether or not the brightness contrast with the surroundings is large, And confidence in contrast is high. As a result, it is possible to detect a portion having high reliability in terms of shape and contrast as a lane mark from the image.

しかしながら、特にカメラからの撮影距離(被写界距離)が長くなる画像エリアでは、画像内に写っているレーンマークの先端が路面のノイズと連結したり、レーンマークの一部がボケて周囲の風景と連結したりして、レーンマークの一部が変形していることがある。この場合、形状やコントラストに関する信頼度が高いためにレーンマークとして検出はされるものの、一部が変形しているために検出位置の精度が低下してしまう。形状等の信頼度は高いが検出位置の精度が低いレーンマークは、誤警報の原因になりやすいという問題があった。   However, especially in an image area where the shooting distance (field distance) from the camera becomes long, the leading edge of the lane mark in the image is connected to the noise on the road surface, or part of the lane mark is blurred and the surrounding area Part of the lane mark may be deformed due to the connection with the scenery. In this case, although it is detected as a lane mark because the reliability regarding the shape and contrast is high, the accuracy of the detection position is lowered because a part of the mark is deformed. A lane mark having a high reliability such as a shape but a low accuracy of a detection position has a problem that it easily causes a false alarm.

なお、上記特許文献4に記載の技術では、撮影画像を複数のエリアに分割し、分割されたエリア毎にレーンマークの信頼度を算出している。そのため、被写界距離が長いエリアと、被写界距離が短いエリアとで、レーンマークの信頼度を変えることが可能である。しかしながら、同じエリア内では同じ信頼度になるため、同じエリア内に写っている画像については被写界距離の影響を考慮することができない。   In the technique described in Patent Document 4, the captured image is divided into a plurality of areas, and the reliability of the lane mark is calculated for each of the divided areas. Therefore, it is possible to change the reliability of the lane mark between an area with a long object distance and an area with a short object distance. However, since the same reliability is obtained in the same area, the influence of the object distance cannot be taken into consideration for images captured in the same area.

仮に、特許文献4に記載の技術を用いて信頼度の精度を上げるためには、分割するエリアの数を多くしなければならなくなる。しかしながら、エリアの数を多くすると、信頼度の計算が煩雑となり、計算負荷が大きくなってしまうという問題が生じる。また、分割したエリアで信頼度を区分すると、エリアの境界線付近で不具合が生じやすくなる。すなわち、境界線を跨いでレーンマークが写っていると、同じレーンマークであっても、どちらのエリアに写っている部分かによって信頼度が大きく変わってしまうという問題が生じる。   To increase the accuracy of reliability using the technique described in Patent Document 4, it is necessary to increase the number of areas to be divided. However, if the number of areas is increased, there is a problem that calculation of reliability becomes complicated and calculation load increases. In addition, when the reliability is divided by the divided areas, problems are likely to occur near the boundary lines of the areas. That is, when a lane mark is shown across the boundary line, there is a problem that even if the lane mark is the same, the reliability varies greatly depending on which area the lane mark is shown.

本発明は、このような問題を解決するために成されたものであり、計算負荷を大きくすることなく、レーンマークの位置精度も考慮した信頼度を算出し、車線逸脱の誤警報を抑制できるようにすることを目的とする。   The present invention has been made to solve such a problem, and without increasing the calculation load, can calculate the reliability considering the positional accuracy of the lane mark, and can suppress false alarms of lane departure. The purpose is to do so.

上記した課題を解決するために、本発明では、撮影画像に写っている被写体がレーンマークの形状をしているか否かに関する形状の評価値を算出するとともに、撮像装置からどの程度の距離に存在するかに関する距離の評価値を算出し、形状の評価値および距離の評価値に基づいて、被写体がレーンマークであるか否かの信頼度を算出するようにしている。距離の評価値を算出するに際して、本発明では、撮影画像を水平方向に1ラインずつスキャンしていったときに周囲との輝度差が大きくなる水平部分をスライスとして抽出し、垂直方向に隣接するスライスどうしで水平方向の座標値の少なくとも一部が重複している複数のスライスをグルーピングする。そして、グルーピングされたグループ内での複数のスライスの数に関する評価値を算出する。また、撮影画像をX軸方向およびY軸方向の2次元平面とし、撮像装置から被写体のエッジまでのX軸方向の距離の評価値を算出し、撮像装置から被写体のエッジまでのY軸方向の距離の評価値を算出するようにしている。 In order to solve the above-described problems, the present invention calculates an evaluation value of a shape related to whether or not a subject shown in a captured image has a shape of a lane mark, and at what distance from the imaging device. A distance evaluation value regarding whether or not the subject is to be calculated is calculated, and a reliability of whether or not the subject is a lane mark is calculated based on the shape evaluation value and the distance evaluation value. In calculating the distance evaluation value, according to the present invention, when a captured image is scanned line by line in the horizontal direction, a horizontal portion where the luminance difference from the surroundings is large is extracted as a slice and adjacent in the vertical direction. A plurality of slices in which at least some of the horizontal coordinate values overlap between slices are grouped. Then, an evaluation value relating to the number of slices in the grouped group is calculated. The captured image is a two-dimensional plane in the X-axis direction and the Y-axis direction, and an evaluation value of the distance in the X-axis direction from the imaging device to the subject edge is calculated, and the Y-axis direction distance from the imaging device to the subject edge is calculated. A distance evaluation value is calculated.

さらに、本発明では、上述のようにした算出した信頼度に基づいてレーンマーク候補を抽出し、当該抽出したレーンマーク候補の位置と、過去に検出されたレーンマークの位置から推定された今回のレーンマークの位置と、レーンマーク候補について算出された信頼度とに基づいて、レーンマークの推定位置またはレーンマーク候補の位置を補正し、当該補正位置をレーンマークの位置として検出するようにしている。   Further, in the present invention, lane mark candidates are extracted based on the calculated reliability as described above, and the current lane mark candidate estimated from the position of the extracted lane mark candidate and the previously detected lane mark position is used. The estimated position of the lane mark or the position of the lane mark candidate is corrected based on the position of the lane mark and the reliability calculated for the lane mark candidate, and the corrected position is detected as the position of the lane mark. .

上記のように構成した本発明によれば、レーンマークの形状に関する評価値に加え、撮像装置からレーンマークまでの距離に関する評価値に基づいて信頼度が算出されるので、レーンマークの検出位置精度に影響を与える要因となる被写界距離に応じた信頼度を算出することができる。しかも、本発明では、撮影画像を領域分割して領域毎に信頼度を変える方式ではなく、レーンマークの被写界距離をダイレクトに評価する方式なので、信頼度の計算負荷が小さくて済む。このように、本発明によれば、計算負荷を大きくすることなく、レーンマークの位置精度も考慮した信頼度を算出することができる。   According to the present invention configured as described above, the reliability is calculated based on the evaluation value related to the distance from the imaging device to the lane mark in addition to the evaluation value related to the shape of the lane mark. It is possible to calculate the reliability according to the object distance that is a factor affecting the image quality. In addition, the present invention is not a method of dividing the captured image into regions and changing the reliability for each region, but a method of directly evaluating the field distance of the lane mark, so that the reliability calculation load can be reduced. As described above, according to the present invention, it is possible to calculate the reliability considering the position accuracy of the lane mark without increasing the calculation load.

また、本発明によれば、上述のようにレーンマークの位置精度を考慮して算出された信頼度に基づいてレーンマーク候補が抽出されるだけでなく、レーンマークの推定位置が、レーンマーク候補の位置およびその信頼度との関係を考慮してより適正な位置に補正されることとなる。あるいは、レーンマーク候補の位置が、レーンマークの推定位置およびレーンマーク候補の信頼度との関係を考慮してより適正な位置に補正されることとなる。そして、補正された位置でレーンマークが検出されることとなるので、より適正な位置でレーンマークを検出することができ、車線逸脱の誤警報を抑制することができる。   Further, according to the present invention, not only lane mark candidates are extracted based on the reliability calculated in consideration of the position accuracy of the lane marks as described above, but also the estimated lane mark position is determined as the lane mark candidate. The position is corrected to a more appropriate position in consideration of the relationship between the position and its reliability. Alternatively, the position of the lane mark candidate is corrected to a more appropriate position in consideration of the relationship between the estimated position of the lane mark and the reliability of the lane mark candidate. Since the lane mark is detected at the corrected position, the lane mark can be detected at a more appropriate position, and a false alarm of lane departure can be suppressed.

本実施形態によるレーンマーク検出装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the lane mark detection apparatus by this embodiment. 本実施形態によるレーンマーク候補抽出部の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the lane mark candidate extraction part by this embodiment. 本実施形態によるレーンマーク位置推定部の動作を説明するための図である。It is a figure for demonstrating operation | movement of the lane mark position estimation part by this embodiment. 本実施形態のレーンマーク候補抽出部により行われるスライスの抽出処理を説明するための図である。It is a figure for demonstrating the extraction process of the slice performed by the lane mark candidate extraction part of this embodiment. 本実施形態のレーンマーク候補抽出部により行われるスライスのグルーピング処理を説明するための図である。It is a figure for demonstrating the grouping process of the slice performed by the lane mark candidate extraction part of this embodiment. 本実施形態のレーンマーク候補抽出部により行われる線分の抽出処理を説明するための図である。It is a figure for demonstrating the extraction process of the line segment performed by the lane mark candidate extraction part of this embodiment. 本実施形態の縦横比評価値算出部により算出される縦横比評価値を説明するための図である。It is a figure for demonstrating the aspect-ratio evaluation value calculated by the aspect-ratio evaluation value calculation part of this embodiment. 本実施形態のX軸方向距離評価値算出部により算出されるX軸方向距離評価値を説明するための図である。It is a figure for demonstrating the X-axis direction distance evaluation value calculated by the X-axis direction distance evaluation value calculation part of this embodiment. 本実施形態のY軸方向距離評価値算出部により算出されるY軸方向距離評価値を説明するための図である。It is a figure for demonstrating the Y-axis direction distance evaluation value calculated by the Y-axis direction distance evaluation value calculation part of this embodiment. 本実施形態のレーンマーク検出装置を適用した場合の効果を示す図である。It is a figure which shows the effect at the time of applying the lane mark detection apparatus of this embodiment. 本実施形態の変形例に係るレーンマーク検出装置を適用した場合の効果を示す図である。It is a figure which shows the effect at the time of applying the lane mark detection apparatus which concerns on the modification of this embodiment.

以下、本発明の一実施形態を図面に基づいて説明する。図1は、本実施形態によるレーンマーク検出装置100の機能構成例を示すブロック図である。図1に示すように、本実施形態のレーンマーク検出装置100は、カメラ等の撮像装置200に接続されている。撮像装置200は、例えば、車両の後方に設置されたリアカメラである。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a functional configuration example of a lane mark detection apparatus 100 according to the present embodiment. As shown in FIG. 1, the lane mark detection device 100 of this embodiment is connected to an imaging device 200 such as a camera. The imaging device 200 is, for example, a rear camera installed behind the vehicle.

レーンマーク検出装置100は、その機能構成として、レーンマーク候補抽出部1、レーンマーク検出部2およびレーンマーク位置推定部3を備えている。なお、これらの各機能ブロック1〜3は、ハードウェア構成、DSP、ソフトウェアの何れによっても実現することが可能である。例えばソフトウェアによって実現する場合、上記各機能ブロック1〜3は、実際にはコンピュータのCPUあるいはMPU、RAM、ROMなどを備えて構成され、RAMやROMに記憶されたプログラムが動作することによって実現できる。   The lane mark detection apparatus 100 includes a lane mark candidate extraction unit 1, a lane mark detection unit 2, and a lane mark position estimation unit 3 as its functional configuration. Each of these functional blocks 1 to 3 can be realized by any of a hardware configuration, a DSP, and software. For example, when realized by software, each of the functional blocks 1 to 3 is actually configured by including a computer CPU or MPU, RAM, ROM, and the like, and can be realized by operating a program stored in the RAM or ROM. .

図2は、本実施形態によるレーンマーク候補抽出部1の機能構成例を示すブロック図である。図2に示すように、本実施形態のレーンマーク候補抽出部1は、
その機能構成として、線分抽出部10、形状評価値算出部11、距離評価値算出部12および信頼度算出部13を備えている。また、形状評価値算出部11は、その更に具体的な機能構成として、直線性評価値算出部111、平行性評価値算出部112および縦横比評価値算出部113を備えている。また、距離評価値算出部12は、その更に具体的な機能構成として、スライス数評価値算出部121、X軸方向距離評価値算出部122およびY軸方向距離評価値算出部123を備えている。
FIG. 2 is a block diagram illustrating a functional configuration example of the lane mark candidate extraction unit 1 according to the present embodiment. As shown in FIG. 2, the lane mark candidate extraction unit 1 of the present embodiment
As its functional configuration, a line segment extraction unit 10, a shape evaluation value calculation unit 11, a distance evaluation value calculation unit 12, and a reliability calculation unit 13 are provided. Further, the shape evaluation value calculation unit 11 includes a linearity evaluation value calculation unit 111, a parallelism evaluation value calculation unit 112, and an aspect ratio evaluation value calculation unit 113 as more specific functional configurations. Further, the distance evaluation value calculation unit 12 includes a slice number evaluation value calculation unit 121, an X-axis direction distance evaluation value calculation unit 122, and a Y-axis direction distance evaluation value calculation unit 123 as more specific functional configurations. .

図1において、レーンマーク候補抽出部1は、撮像装置200より入力される撮影画像内からレーンマーク候補を抽出する。レーンマーク候補とは、撮影画像内に写っている被写体の輝度の違いや形状等をもとに、レーンマークの可能性がある部分として特定されるものである。なお、レーンマーク候補の抽出処理に関する詳細は後述する。   In FIG. 1, a lane mark candidate extraction unit 1 extracts lane mark candidates from a captured image input from the imaging apparatus 200. The lane mark candidate is specified as a portion having a possibility of a lane mark based on the difference in luminance or shape of the subject in the captured image. Details regarding the lane mark candidate extraction process will be described later.

レーンマーク検出部2は、撮影画像内に検索範囲を設定し、設定した検索範囲の中にあるレーンマーク候補からレーンマークを検出する。レーンマークを検出する際に、レーンマーク検出部2は、レーンマーク位置推定部3により推定されたレーンマークの位置と、レーンマーク候補抽出部1により抽出されたレーンマーク候補の位置と、レーンマーク候補抽出部1によりレーンマーク候補について算出された信頼度とに基づいて、レーンマークの推定位置を補正し、当該補正した位置をレーンマークの位置として検出する。なお、このレーンマーク検出部2によるレーンマーク検出処理についても、その詳細は後述する。   The lane mark detection unit 2 sets a search range in the photographed image, and detects a lane mark from lane mark candidates in the set search range. When detecting the lane mark, the lane mark detection unit 2 detects the position of the lane mark estimated by the lane mark position estimation unit 3, the position of the lane mark candidate extracted by the lane mark candidate extraction unit 1, and the lane mark. Based on the reliability calculated for the lane mark candidate by the candidate extraction unit 1, the estimated position of the lane mark is corrected, and the corrected position is detected as the position of the lane mark. The details of the lane mark detection processing by the lane mark detection unit 2 will be described later.

レーンマーク位置推定部3は、レーンマーク検出部2により過去に検出されたレーンマークの位置から今回のレーンマークの位置を推定する。本実施形態において、レーンマーク位置推定部3は、レーンマーク検出部2による過去のレーンマークの検出結果に基づいて、レーンマークの横方向に対する単位時間当たりの移動量(Y軸方向の移動速度)を算出する。そして、当該算出したレーンマークの単位時間当たりの移動量と、レーンマーク検出部2により検出された過去のレーンマークの位置とに基づいて、次の単位時間後におけるレーンマーク位置を推定する。   The lane mark position estimation unit 3 estimates the position of the current lane mark from the position of the lane mark detected in the past by the lane mark detection unit 2. In the present embodiment, the lane mark position estimation unit 3 is based on the past lane mark detection result by the lane mark detection unit 2 and the movement amount per unit time in the lateral direction of the lane mark (movement speed in the Y-axis direction). Is calculated. Based on the calculated movement amount of the lane mark per unit time and the position of the past lane mark detected by the lane mark detection unit 2, the lane mark position after the next unit time is estimated.

図3は、本実施形態によるレーンマーク位置推定部3の動作の概略を説明するための図である。図3(a)は、ある時間tにおいて撮影画像内から検出されたレーンマークの位置を示す。時間tにおける車両中心から左レーンマークまでの距離をDLt、車両中心から右レーンマークまでの距離をDRtとする。本実施形態では、レーンマークの位置を、車両中心からの距離で表すものとする。 FIG. 3 is a diagram for explaining the outline of the operation of the lane mark position estimation unit 3 according to the present embodiment. FIG. 3A shows the position of the lane mark detected from the captured image at a certain time t. The distance from the vehicle center to the left lane mark at time t is D Lt , and the distance from the vehicle center to the right lane mark is D Rt . In this embodiment, the position of the lane mark is represented by a distance from the vehicle center.

図3(b)は、次の単位時間後における時間t+d(d:単位時間)において撮影画像内から検出されたレーンマークの位置(車両中心からの距離)を示す。時間t+dにおける車両中心から左レーンマークまでの距離をDLt+d、車両中心から右レーンマークまでの距離をDRt+dとする。図3(c)は、更に次の単位時間後における時間t+2dにおいて撮影画像内から検出されるレーンマークの位置を示す。 FIG. 3B shows the position of the lane mark (distance from the vehicle center) detected from the captured image at time t + d (d: unit time) after the next unit time. The distance from the vehicle center to the left lane mark at time t + d is D Lt + d , and the distance from the vehicle center to the right lane mark is D Rt + d . FIG. 3C shows the position of the lane mark detected from the captured image at time t + 2d after the next unit time.

レーンマーク位置推定部3は、時間t+2dにおいてレーンマークを検出する際に、レーンマーク検出部2により時間tにおいて検出されたレーンマークの位置DLt,DRtと、時間t+dにおいて検出されたレーンマークの位置DLt+d,DRt+dとに基づいて、レーンマークの横方向に対する単位時間当たりの移動量を算出する。この場合、左レーンマークの単位時間当たりの移動量は、車両が左レーンマークに近づく方向に(DLt−DLt+d)/{(t+d)−t}である。一方、右レーンマークの単位時間当たりの移動量は、車両が右レーンマークから遠ざかる方向に(DRt+d−DRt)/{(t+d)−t}である。 When the lane mark position estimation unit 3 detects a lane mark at time t + 2d, the lane mark positions D Lt and D Rt detected by the lane mark detection unit 2 at time t and the lane mark detected at time t + d The amount of movement per unit time in the horizontal direction of the lane mark is calculated based on the positions D Lt + d and D Rt + d . In this case, the amount of movement of the left lane mark per unit time is (D Lt −D Lt + d ) / {(t + d) −t} in the direction in which the vehicle approaches the left lane mark. On the other hand, the movement amount of the right lane mark per unit time is (D Rt + d −D Rt ) / {(t + d) −t} in the direction in which the vehicle moves away from the right lane mark.

レーンマーク位置推定部3は、レーンマーク検出部2により時間t+dにおいて検出されたレーンマークの位置DLt+d,DRt+dと、時間t+2dにおいて算出されたレーンマークの単位時間当たりの移動量(DLt−DLt+d)/{(t+d)−t},(DRt+d−DRt)/{(t+d)−t}とに基づいて、時間t+2dにおけるレーンマーク位置を推定する。 The lane mark position estimation unit 3 includes the lane mark positions D Lt + d and D Rt + d detected by the lane mark detection unit 2 at time t + d, and the lane mark movement amount per unit time calculated at time t + 2d (D Lt − Based on (D Lt + d ) / {(t + d) −t}, (D Rt + d −D Rt ) / {(t + d) −t}, the lane mark position at time t + 2d is estimated.

具体的には、時間t+dにおいて検出された左レーンマークの位置DLt+dから、左レーンマークの単位時間当たりの移動距離(DLt−DLt+d)/{(t+d)−t}×dを減算することにより得られる位置を、時間t+2dにおける左レーンマークの推定位置とする。また、時間t+dにおいて検出された右レーンマークの位置DRt+dに、右レーンマークの単位時間当たりの移動距離(DRt+d−DRt)/{(t+d)−t}×dを加算することにより得られる位置を、時間t+2dにおける右レーンマークの推定位置とする。図3(c)において、21が左レーンマークの推定位置、21が右レーンマークの推定位置である。 Specifically, the movement distance per unit time of the left lane mark (D Lt −D Lt + d ) / {(t + d) −t} × d is subtracted from the position D Lt + d of the left lane mark detected at time t + d. The position obtained by this is the estimated position of the left lane mark at time t + 2d. Further, the movement distance per unit time of the right lane mark (D Rt + d −D Rt ) / {(t + d) −t} × d is added to the position D Rt + d of the right lane mark detected at time t + d. This position is the estimated position of the right lane mark at time t + 2d. In FIG. 3C, 21 L is the estimated position of the left lane mark, and 21 R is the estimated position of the right lane mark.

以下に、図2に示したレーンマーク候補抽出部1の機能構成を具体的に説明していく。まず、線分抽出部10は、撮像装置200より入力された撮影画像から、グレースケールの輝度画像を生成する。そして、線分抽出部10は、図4に示すように、輝度画像を水平方向にスキャンして、閾値以上の輝度が一定間隔続く水平部分をラインとして取り出す。これを撮影画像の全体に対して行う。なお、取り出したラインの1つ1つを「スライス」という。   The functional configuration of the lane mark candidate extraction unit 1 shown in FIG. 2 will be specifically described below. First, the line segment extraction unit 10 generates a grayscale luminance image from the captured image input from the imaging device 200. Then, as shown in FIG. 4, the line segment extraction unit 10 scans the luminance image in the horizontal direction, and extracts a horizontal portion where the luminance equal to or higher than the threshold continues for a certain interval as a line. This is performed on the entire captured image. Each extracted line is called a “slice”.

次に、線分抽出部10は、図5に示すように、取り出した各スライスに対して、垂直方向に隣接するスライスどうしで水平方向の座標値の少なくとも一部が重複している複数のスライスをグルーピングする。図5に示す例では、撮影画像内からスライスの3つのグループ1〜3が抽出されている。   Next, as shown in FIG. 5, the line segment extraction unit 10 has a plurality of slices in which at least a part of the coordinate values in the horizontal direction are overlapped between the slices adjacent in the vertical direction with respect to each extracted slice. Group. In the example shown in FIG. 5, three groups 1 to 3 of slices are extracted from the captured image.

さらに、線分抽出部10は、図6に示すように、各グループ1〜3のスライスを3次元座標の路面(Z=0)に投影した後、各スライスの中点から、最小2乗法でレーンマーク候補となる線分の直線式Y=aX+b(Z=0)を抽出する。ここで、aは線分の傾き、bは線分のY切片である。なお、3次元座標の路面への投影とは、撮像装置200より入力した撮影画像を、車両上方の仮想視点から見た真上からの画像に視点変換することをいう。3次元座標の原点は、車両中心の位置である。また、X軸において車両の前方がプラス、Y軸において車両の左側がプラスで右側がマイナスである。   Further, as shown in FIG. 6, the line segment extraction unit 10 projects the slices of the groups 1 to 3 onto the road surface (Z = 0) of the three-dimensional coordinates, and then uses the least square method from the midpoint of each slice. A linear expression Y = aX + b (Z = 0) is extracted as a lane mark candidate. Here, a is the slope of the line segment, and b is the Y intercept of the line segment. Note that the projection of the three-dimensional coordinates onto the road surface means that the captured image input from the imaging device 200 is subjected to viewpoint conversion into an image from directly above viewed from a virtual viewpoint above the vehicle. The origin of the three-dimensional coordinates is the position of the vehicle center. In addition, the front of the vehicle is positive on the X axis, the left side of the vehicle is positive and the right side is negative on the Y axis.

スライスのグループ1から抽出される線分の直線式はY=a1X+b1、グループ2から抽出される線分の直線式はY=a2X+b2、グループ3から抽出される線分の直線式はY=a3X+b3である。   The line expression extracted from group 1 of the slice is Y = a1X + b1, the line expression extracted from group 2 is Y = a2X + b2, and the line expression extracted from group 3 is Y = a3X + b3. is there.

ここで、線分抽出部10は、以上のように各グループ1〜3について算出した線分の直線式のうち、傾きaおよびY切片bの値がある範囲内に入る複数の直線式がある場合は、それらの直線式に該当するグループを1つにまとめる。図6の例では、グループ2とグループ3を1つのグループにまとめている。そして、線分抽出部10は、1つにまとめたグループについて、その中に含まれる各スライスの情報から1本の線分を再度抽出する。その結果、まとめた線分の直線式はY=a4X+b4となる。   Here, the line segment extraction unit 10 has a plurality of linear expressions that fall within a certain range of values of the slope a and the Y intercept b among the linear expressions calculated for the groups 1 to 3 as described above. In such a case, groups corresponding to those linear expressions are combined into one. In the example of FIG. 6, group 2 and group 3 are combined into one group. Then, the line segment extraction unit 10 extracts one line segment again from the information of each slice included in the group grouped into one. As a result, the linear expression of the combined line segments is Y = a4X + b4.

線分抽出部10は、各スライスの中点から線分を抽出したのと同様に、各スライスの左端および右端についても最小2乗法により線分をそれぞれ抽出する。これにより、スライスの中点から抽出した線分と平行な線分を両側に引き、スライスの幅を算出する。図6の例では、グループ1の線分Y=a1X+b1についてスライス幅を算出するとともに、グループ2,3をまとめた1つのグループの線分Y=a4X+b4についてスライス幅を算出する。   The line segment extraction unit 10 extracts line segments from the left end and the right end of each slice by the least square method in the same manner as the line segment is extracted from the midpoint of each slice. Thereby, a line segment parallel to the line segment extracted from the midpoint of the slice is drawn on both sides, and the slice width is calculated. In the example of FIG. 6, the slice width is calculated for the line segment Y = a1X + b1 of the group 1, and the slice width is calculated for the line segment Y = a4X + b4 of one group in which the groups 2 and 3 are combined.

形状評価値算出部11、距離評価値算出部12および信頼度算出部13は、以上のようにして線分抽出部10により抽出された各線分について、レーンマークとしての確からしさを示す信頼度を算出する。信頼度の算出に際して、形状評価値算出部11は、撮像装置200より入力される撮影画像に写っている被写体(線分抽出部10によりレーンマーク候補として抽出された線分)がレーンマークの形状をしているか否かに関する形状評価値を算出する。具体的には、直線性評価値算出部111、平行性評価値算出部112および縦横比評価値算出部113により、3つの観点から形状評価値を算出する。   The shape evaluation value calculation unit 11, the distance evaluation value calculation unit 12, and the reliability calculation unit 13 indicate the reliability indicating the probability as a lane mark for each line segment extracted by the line segment extraction unit 10 as described above. calculate. When calculating the reliability, the shape evaluation value calculation unit 11 determines that the subject (the line segment extracted as the lane mark candidate by the line segment extraction unit 10) in the captured image input from the imaging apparatus 200 is the shape of the lane mark. A shape evaluation value relating to whether or not the image is being calculated is calculated. Specifically, the shape evaluation value is calculated from three viewpoints by the linearity evaluation value calculation unit 111, the parallelism evaluation value calculation unit 112, and the aspect ratio evaluation value calculation unit 113.

直線性評価値算出部111は、線分抽出部10により抽出された線分の直線性に関する評価値を算出する。具体的には、図6のように求めた線分の直線式Y=aX+bと各スライスの中点とのずれの大きさから線分の直線性を評価する。その直線性評価値MatchingValueは、例えば以下の算出式で求められ、0.0〜1.0の何れかの値をとる。   The linearity evaluation value calculation unit 111 calculates an evaluation value related to the linearity of the line segment extracted by the line segment extraction unit 10. Specifically, the linearity of the line segment is evaluated from the linear equation Y = aX + b obtained as shown in FIG. 6 and the magnitude of the deviation between the midpoint of each slice. The linearity evaluation value MatchingValue is obtained by the following calculation formula, for example, and takes any value between 0.0 and 1.0.

MatchingValue=1.0−Diffrence/MaxDiffrence
ただし、
Diffrence:直線式と各スライスの中点との距離の平均値
MaxDiffrence:距離誤差の閾値
平行性評価値算出部112は、線分抽出部10により抽出された線分の両側のエッジの平行性に関する評価値を算出する。具体的には、図6に示したように各スライスの左端および右端から最小2乗法により抽出した2本の線分の平行性を評価する。その平行性評価値EdgeMatchValueは、例えば以下の算出式で求められ、これも0.0〜1.0の何れかの値をとる。
MatchingValue = 1.0−Diffrence / MaxDiffrence
However,
Diffrence: Average distance between the straight line expression and the midpoint of each slice
MaxDiffrence: distance error threshold The parallelism evaluation value calculation unit 112 calculates an evaluation value related to the parallelism of the edges on both sides of the line segment extracted by the line segment extraction unit 10. Specifically, as shown in FIG. 6, the parallelism of two line segments extracted by the least square method from the left end and the right end of each slice is evaluated. The parallelism evaluation value EdgeMatchValue is obtained by the following calculation formula, for example, and also takes any value of 0.0 to 1.0.

EdgeMatchValue=EdgeDiffrence/MaxEdgeDiffrence
ただし、
EdgeDiffrence:2本の線分の傾きの差
MaxEdgeDiffrence:各スライスの左端および右端の差の最大値
縦横比評価値算出部113は、線分抽出部10により抽出された線分の縦方向の長さと横方向の長さとの比に関する評価値を算出する。具体的には、図7に示すように、抽出された線分の縦方向(X軸方向)の上端から下端までの長さと、横方向(Y軸方向)の左端から右端までの長さとの比を評価する。その縦横比評価値AspectMatchValueは、例えば以下の算出式で求められ、これも0.0〜1.0の何れかの値をとる。
EdgeMatchValue = EdgeDiffrence / MaxEdgeDiffrence
However,
EdgeDiffrence: Difference in slope of two line segments
MaxEdgeDiffrence: Maximum value of the difference between the left end and the right end of each slice The aspect ratio evaluation value calculation unit 113 calculates an evaluation value related to the ratio between the vertical length and the horizontal length of the line segment extracted by the line segment extraction unit 10. calculate. Specifically, as shown in FIG. 7, the length from the upper end to the lower end in the vertical direction (X-axis direction) of the extracted line segment and the length from the left end to the right end in the horizontal direction (Y-axis direction) Evaluate the ratio. The aspect ratio evaluation value AspectMatchValue is obtained by the following calculation formula, for example, and also takes any value of 0.0 to 1.0.

AspectMatchValue=(AspectRato−MinAspectRatio)/(MaxAspectRatio−MinAspectRatio)−1.0
ただし、
AspectRato:線分の縦横比
MaxAspectRatio:撮影画像内から抽出された各線分に関する縦横比の最大値
MinAspectRatio:撮影画像内から抽出された各線分に関する縦横比の最小値
形状評価値算出部11は、直線性評価値算出部111、平行性評価値算出部112および縦横比評価値算出部113により算出された3つの観点の評価値を用いて、以下の算出式により形状評価値を算出する。
AspectMatchValue = (AspectRato−MinAspectRatio) / (MaxAspectRatio−MinAspectRatio) −1.0
However,
AspectRato: Aspect ratio of line segment
MaxAspectRatio: Maximum aspect ratio for each line segment extracted from the captured image
MinAspectRatio: Minimum value of aspect ratio for each line segment extracted from the captured image The shape evaluation value calculation unit 11 is calculated by the linearity evaluation value calculation unit 111, the parallelism evaluation value calculation unit 112, and the aspect ratio evaluation value calculation unit 113. Using the evaluation values of the three viewpoints, the shape evaluation value is calculated by the following calculation formula.

形状評価値=(直線性評価値+平行性評価値+縦横比評価値)/3
距離評価値算出部12は、撮像装置200より入力される撮影画像に写っている被写体(線分抽出部10によりレーンマーク候補として抽出された線分)が撮像装置200からどの程度の距離に存在するかに関する距離評価値を算出する。具体的には、スライス数評価値算出部121、X軸方向距離評価値算出部122およびY軸方向距離評価値算出部123により、3つの観点から距離評価値を算出する。
Shape evaluation value = (Linearity evaluation value + Parallelity evaluation value + Aspect ratio evaluation value) / 3
The distance evaluation value calculation unit 12 has a subject (a line segment extracted as a lane mark candidate by the line segment extraction unit 10) in the captured image input from the imaging device 200 at a distance from the imaging device 200. The distance evaluation value regarding whether to do is calculated. Specifically, the distance evaluation value is calculated from three viewpoints by the slice number evaluation value calculation unit 121, the X-axis direction distance evaluation value calculation unit 122, and the Y-axis direction distance evaluation value calculation unit 123.

スライス数評価値算出部121は、線分に含まれるスライスの数に関する評価値を算出する。具体的には、スライス数評価値算出部121は、例えば以下の算出式でスライス数評価値SliceNumMatchValueを算出する。このスライス数評価値SliceNumMatchValueも、0.0〜1.0の何れかの値をとる。   The slice number evaluation value calculation unit 121 calculates an evaluation value related to the number of slices included in the line segment. Specifically, the slice number evaluation value calculation unit 121 calculates the slice number evaluation value SliceNumMatchValue using the following calculation formula, for example. This slice number evaluation value SliceNumMatchValue also takes any value between 0.0 and 1.0.

SliceNumMatchValue=SliceNum/MaxSliceNum×100
ただし、
SliceNum:スライス数
MaxSliceNum:撮影画像内から抽出された各線分に関するスライス数の最大値
X軸方向距離評価値算出部122は、図8に示すように、撮像装置200から線分のエッジまでのX軸方向の距離の評価値を算出する。具体的には、X軸方向距離評価値算出部122は、例えば以下の算出式でX軸方向距離評価値DistXMatchValueを算出する。このX軸方向距離評価値DistXMatchValueも、0.0〜1.0の何れかの値をとる。
SliceNumMatchValue = SliceNum / MaxSliceNum × 100
However,
SliceNum: Number of slices
MaxSliceNum: Maximum value of the number of slices for each line segment extracted from the captured image As shown in FIG. 8, the X-axis direction distance evaluation value calculation unit 122 is a distance in the X-axis direction from the imaging device 200 to the edge of the line segment. The evaluation value of is calculated. Specifically, the X-axis direction distance evaluation value calculation unit 122 calculates the X-axis direction distance evaluation value DistXMatchValue using the following calculation formula, for example. This X-axis direction distance evaluation value DistXMatchValue also takes any value between 0.0 and 1.0.

DistXMatchValue=(MaxDistX−DistX)/MaxDistX
ただし、
DistX :撮像装置200から線分のエッジまでのX軸方向の距離
MaxDistX:撮像装置200から線分のエッジまでのX軸方向の距離の限界値
Y軸方向距離評価値算出部123は、図9に示すように、撮像装置200から線分のエッジまでのY軸方向の距離の評価値を算出する。具体的には、Y軸方向距離評価値算出部123は、例えば以下の算出式でY軸方向距離評価値DistYMatchValueを算出する。このY軸方向距離評価値DistYMatchValueも、0.0〜1.0の何れかの値をとる。
DistXMatchValue = (MaxDistX−DistX) / MaxDistX
However,
DistX: Distance in the X-axis direction from the imaging apparatus 200 to the edge of the line segment
MaxDistX: Limit value of the distance in the X-axis direction from the imaging device 200 to the edge of the line segment The Y-axis direction distance evaluation value calculation unit 123, as shown in FIG. The evaluation value of the direction distance is calculated. Specifically, the Y-axis direction distance evaluation value calculation unit 123 calculates the Y-axis direction distance evaluation value DistYMatchValue using the following calculation formula, for example. This Y-axis direction distance evaluation value DistYMatchValue also takes any value between 0.0 and 1.0.

DistYMatchValue=(MaxDistY−DistY)/MaxDistY
ただし、
DistY :撮像装置200から線分のエッジまでのY軸方向の距離
MaxDistY:撮像装置200から線分のエッジまでのY軸方向の距離の限界値
距離評価値算出部12は、スライス数評価値算出部121、X軸方向距離評価値算出部122およびY軸方向距離評価値算出部123により算出された3つの観点の評価値を用いて、以下の算出式により距離評価値を算出する。
DistYMatchValue = (MaxDistY−DistY) / MaxDistY
However,
DistY: Distance in the Y-axis direction from the imaging apparatus 200 to the edge of the line segment
MaxDistY: Limit value of distance in the Y-axis direction from the imaging apparatus 200 to the edge of the line segment The distance evaluation value calculation unit 12 includes a slice number evaluation value calculation unit 121, an X-axis direction distance evaluation value calculation unit 122, and a Y-axis direction distance. Using the evaluation values of the three viewpoints calculated by the evaluation value calculation unit 123, the distance evaluation value is calculated by the following calculation formula.

距離評価値=(スライス数評価値+X軸方向距離評価値+Y軸方向距離評価値)/3
信頼度算出部13は、形状評価値算出部11により算出された形状評価値と、距離評価値算出部12により算出された距離評価値とに基づいて、線分抽出部10により抽出された線分がレーンマークであるか否かの信頼度を算出する。具体的には、信頼度算出部13は、形状評価値×距離評価値なる算出式によってレーンマークの信頼度を算出する。
Distance evaluation value = (Slice number evaluation value + X-axis direction distance evaluation value + Y-axis direction distance evaluation value) / 3
The reliability calculation unit 13 is a line extracted by the line segment extraction unit 10 based on the shape evaluation value calculated by the shape evaluation value calculation unit 11 and the distance evaluation value calculated by the distance evaluation value calculation unit 12. The reliability of whether or not the minute is a lane mark is calculated. Specifically, the reliability calculation unit 13 calculates the reliability of the lane mark by a calculation formula of shape evaluation value × distance evaluation value.

図2に示すレーンマーク候補抽出部1は、線分抽出部10によりレーンマーク候補として抽出された各線分と、各線分について信頼度算出部13により算出された信頼度とをレーンマーク検出部2に出力する。レーンマーク検出部2は、上述したように、レーンマーク位置推定部3により推定されたレーンマークの位置と、レーンマーク候補抽出部1より出力されたレーンマーク候補の位置および信頼度とに基づいて、レーンマークの推定位置を補正し、当該補正した位置をレーンマークの位置として検出する。   The lane mark candidate extraction unit 1 shown in FIG. 2 uses the line segment extraction unit 10 to extract each line segment extracted as a lane mark candidate and the reliability calculated by the reliability calculation unit 13 for each line segment. Output to. As described above, the lane mark detection unit 2 is based on the lane mark position estimated by the lane mark position estimation unit 3 and the lane mark candidate position and reliability output from the lane mark candidate extraction unit 1. The estimated position of the lane mark is corrected, and the corrected position is detected as the position of the lane mark.

例えば、レーンマーク候補抽出部1の信頼度算出部13により算出された信頼度を、以下に示すようなカルマンフィルタの算出式に対してカルマンゲインKとして与える。   For example, the reliability calculated by the reliability calculation unit 13 of the lane mark candidate extraction unit 1 is given as the Kalman gain K to the following Kalman filter calculation formula.

[レーンマークの補正推定位置]=[レーンマークの推定位置]+K*[レーンマーク候補の実測位置]
そして、この算出式によって求められる補正推定位置を、レーンマークの位置として検出する。
[Lane mark correction estimated position] = [lane mark estimated position] + K * [lane mark candidate measured position]
Then, the corrected estimated position obtained by this calculation formula is detected as the position of the lane mark.

このようなカルマンフィルタの算出式において、信頼度算出部13により算出される信頼度をカルマンゲインKとして用いた場合、信頼度が低くなるほど、レーンマーク候補抽出部1により抽出されるレーンマーク候補の実測位置がレーンマークの検出位置に対して与える影響度は小さくなっていく。その結果、信頼度が低い場合には、レーンマーク候補の実測位置よりもレーンマークの推定位置が優先された状態で、レーンマークの位置が検出される。この場合の信頼度は、レーンマークの検出位置精度に影響を与える被写界距離の評価値を含めて算出されているため、レーンマークの検出位置精度に悪影響を与えるような信頼度の低いレーンマーク候補の実測位置を極力使わない状態で、より的確なレーンマーク位置を検出することができるようになる。   In such a Kalman filter calculation formula, when the reliability calculated by the reliability calculation unit 13 is used as the Kalman gain K, the lane mark candidate extracted by the lane mark candidate extraction unit 1 is actually measured as the reliability decreases. The degree of influence of the position on the detection position of the lane mark decreases. As a result, when the reliability is low, the position of the lane mark is detected in a state where the estimated position of the lane mark has priority over the actually measured position of the lane mark candidate. Since the reliability in this case is calculated including the evaluation value of the object distance that affects the detection position accuracy of the lane mark, the lane with low reliability that adversely affects the detection position accuracy of the lane mark. A more accurate lane mark position can be detected in a state where the measured positions of the mark candidates are not used as much as possible.

以上詳しく説明したように、本実施形態では、撮影画像に写っている被写体がレーンマークの形状をしているか否かに関する形状評価値を形状評価値算出部11にて算出するとともに、被写界距離に関する距離評価値を距離評価値算出部12にて算出し、信頼度算出部13が形状評価値および距離評価値に基づいて信頼度を算出するようにしている。   As described above in detail, in this embodiment, the shape evaluation value calculation unit 11 calculates the shape evaluation value related to whether or not the subject in the captured image has the shape of the lane mark, and the object scene A distance evaluation value related to the distance is calculated by the distance evaluation value calculation unit 12, and the reliability calculation unit 13 calculates the reliability based on the shape evaluation value and the distance evaluation value.

これにより、レーンマークの検出位置精度に影響を与える要因となる被写界距離に応じた信頼度を算出することができる。しかも、本実施形態では、撮影画像を領域分割して領域毎に信頼度を変える方式ではなく、レーンマークの被写界距離をダイレクトに評価する方式なので、信頼度の計算負荷が小さくて済む。したがって、本実施形態によれば、計算負荷を大きくすることなく、レーンマークの位置精度も考慮した信頼度を算出することができる。   Thereby, it is possible to calculate the reliability according to the object distance, which is a factor affecting the detection position accuracy of the lane mark. In addition, according to the present embodiment, the method of directly evaluating the field distance of the lane mark is not a method of dividing the captured image into regions and changing the reliability for each region, but the reliability calculation load can be reduced. Therefore, according to the present embodiment, it is possible to calculate the reliability in consideration of the position accuracy of the lane mark without increasing the calculation load.

また、本実施形態では、レーンマーク候補抽出部1により抽出したレーンマーク候補の位置と、当該抽出したレーンマーク候補について上述のようにして算出した信頼度と、レーンマーク位置推定部3により推定されたレーンマークの位置とに基づいて、レーンマーク検出部2がレーンマークの推定位置を補正し、当該補正位置をレーンマークの位置として検出するようにしている。   In this embodiment, the position of the lane mark candidate extracted by the lane mark candidate extraction unit 1, the reliability calculated as described above for the extracted lane mark candidate, and the lane mark position estimation unit 3 estimate the position. Based on the position of the lane mark, the lane mark detection unit 2 corrects the estimated position of the lane mark, and detects the corrected position as the position of the lane mark.

このような構成により、レーンマークの推定位置が、レーンマーク候補の位置と、上述のようにレーンマークの位置精度を考慮して算出した信頼度との関係を考慮してより適正な位置に補正されることとなる。そして、補正されたレーンマークの推定位置でレーンマークが検出されることとなるので、より適正な位置でレーンマークを検出することができる。その結果、レーンマークを跨いで車両が車線から逸脱する恐れがないのに発せられる車線逸脱の誤警報を抑制することができる。   With this configuration, the estimated position of the lane mark is corrected to a more appropriate position in consideration of the relationship between the position of the lane mark candidate and the reliability calculated in consideration of the position accuracy of the lane mark as described above. Will be. Since the lane mark is detected at the estimated position of the corrected lane mark, the lane mark can be detected at a more appropriate position. As a result, it is possible to suppress a false alarm of lane departure that is issued when there is no fear that the vehicle will depart from the lane across the lane mark.

図10は、本実施形態による効果を示す図である。これは、実際に道路を走行して撮影した車両後方の撮影画像を入力して本実施形態のレーンマーク検出装置100を動作させた場合における誤警報の発生回数を示したものである。図10(a)は、距離評価値を含めて信頼度を算出した場合の結果を示す(本実施形態の適用例)。図10(b)は、距離評価値を含めずに信頼度を算出した場合の結果を示す(従来例)。   FIG. 10 is a diagram showing the effect of this embodiment. This shows the number of occurrences of false alarms when the lane mark detection apparatus 100 according to the present embodiment is operated by inputting a captured image of the rear of the vehicle actually captured on the road. FIG. 10A shows the result when the reliability is calculated including the distance evaluation value (application example of this embodiment). FIG. 10B shows the result when the reliability is calculated without including the distance evaluation value (conventional example).

図10(a)に示すように、本実施形態の場合は1時間当たりの誤警報の発生回数は25.1回であった。これに対して、従来例の場合は1時間当たりの誤警報の発生回数は33.2回であった。これから分かるように、本実施形態のレーンマーク検出装置100を適用すると、1時間当たりの誤警報の発生回数を従来比で20%程度も低減できている。   As shown in FIG. 10A, in the present embodiment, the number of false alarms generated per hour was 25.1 times. On the other hand, in the case of the conventional example, the number of false alarms generated per hour was 33.2 times. As can be seen from this, when the lane mark detection apparatus 100 of this embodiment is applied, the number of false alarms generated per hour can be reduced by about 20% compared to the prior art.

なお、上記実施形態では、距離評価値算出部12は、スライス数評価値、X軸方向距離評価値およびY軸方向距離評価値の3つの観点から距離評価値を算出する例について説明したが、本発明はこれに限定されない。例えば、スライス数評価値の1点のみから距離評価値を算出するようにしてもよい。図11は、この場合における誤警報発生の低減効果を示す図である。図11に示すように、スライス数評価値の1点のみから距離評価値を算出した場合、1時間当たりの誤警報の発生回数は30.6回であった。これを図10(b)の結果と比較すれば分かるように、1時間当たりの誤警報の発生回数を10%程度低減できている。   In the above embodiment, the distance evaluation value calculation unit 12 has been described with respect to an example in which the distance evaluation value is calculated from the three viewpoints of the slice number evaluation value, the X-axis direction distance evaluation value, and the Y-axis direction distance evaluation value. The present invention is not limited to this. For example, the distance evaluation value may be calculated from only one point of the slice number evaluation value. FIG. 11 is a diagram showing the effect of reducing the occurrence of false alarms in this case. As shown in FIG. 11, when the distance evaluation value was calculated from only one slice number evaluation value, the number of false alarms generated per hour was 30.6. As can be seen by comparing this with the result of FIG. 10B, the number of false alarms generated per hour can be reduced by about 10%.

また、上記実施形態では、カルマンフィルタのカルマン係数Kとして信頼度を用い、レーンマーク位置推定部3により推定されたレーンマークの位置と、線分抽出部10により抽出されたレーンマーク候補の位置と、信頼度算出部13によりレーンマーク候補について算出された信頼度とに基づいて、レーンマークの推定位置を補正し、当該補正した推定位置をレーンマークの位置として検出する例について説明したが、本発明はこれに限定されない。   In the above embodiment, the reliability is used as the Kalman coefficient K of the Kalman filter, the position of the lane mark estimated by the lane mark position estimation unit 3, the position of the lane mark candidate extracted by the line segment extraction unit 10, and The example in which the estimated position of the lane mark is corrected based on the reliability calculated for the lane mark candidate by the reliability calculation unit 13 and the corrected estimated position is detected as the position of the lane mark has been described. Is not limited to this.

例えば、カルマン係数Kの逆数として信頼度を用い、レーンマーク位置推定部3により推定されたレーンマークの位置と、線分抽出部10により抽出されたレーンマーク候補の位置と、信頼度算出部13によりレーンマーク候補について算出された信頼度とに基づいて、以下の算出式に示すようにしてレーンマーク候補の位置を補正し、当該補正したレーンマーク候補の位置をレーンマークの位置として検出するようにしてもよい。   For example, the reliability is used as the reciprocal of the Kalman coefficient K, the position of the lane mark estimated by the lane mark position estimation unit 3, the position of the lane mark candidate extracted by the line segment extraction unit 10, and the reliability calculation unit 13 Based on the reliability calculated for the lane mark candidate, the position of the lane mark candidate is corrected as shown in the following calculation formula, and the corrected position of the lane mark candidate is detected as the position of the lane mark. It may be.

[レーンマーク候補の補正位置]=[レーンマーク候補の実測位置]+1/K* [レーンマークの推定位置]
また、上記実施形態では、カルマンフィルタを用いてレーンマーク位置の補正を行う例について説明したが、本発明はこれに限定されない。すなわち、信頼度算出部13により算出される信頼度が低くなるほど、補正結果に対するレーンマーク候補の位置の影響度が小さくなるような補正方法であれば、カルマンフィルタ以外の方法を適用してもよい。
[Correction position of lane mark candidate] = [Measured position of lane mark candidate] + 1 / K * [Estimated position of lane mark]
Moreover, although the said embodiment demonstrated the example which correct | amends a lane mark position using a Kalman filter, this invention is not limited to this. That is, any method other than the Kalman filter may be applied as long as the degree of influence of the position of the lane mark candidate on the correction result becomes smaller as the degree of reliability calculated by the degree of reliability calculation unit 13 is lower.

その他、上記実施形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその要旨、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。   In addition, each of the above-described embodiments is merely an example of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner. That is, the present invention can be implemented in various forms without departing from the gist or the main features thereof.

1 レーンマーク候補抽出部
2 レーンマーク検出部
3 レーンマーク位置推定部
10 線分抽出部
11 形状評価値算出部
12 距離評価値算出部
13 信頼度算出部
121 スライス数評価値算出部
122 X軸方向距離評価値算出部
123 Y軸方向距離評価値算出部
DESCRIPTION OF SYMBOLS 1 Lane mark candidate extraction part 2 Lane mark detection part 3 Lane mark position estimation part 10 Line segment extraction part 11 Shape evaluation value calculation part 12 Distance evaluation value calculation part 13 Reliability calculation part 121 Slice number evaluation value calculation part 122 X-axis direction Distance evaluation value calculation unit 123 Y-axis direction distance evaluation value calculation unit

Claims (2)

撮像装置より入力される撮影画像に写っている被写体がレーンマークの形状をしているか否かに関する形状の評価値を算出する形状評価値算出部と、
上記撮影画像に写っている被写体が上記撮像装置からどの程度の距離に存在するかに関する距離の評価値を算出する距離評価値算出部と、
上記形状の評価値および上記距離の評価値に基づいて、上記被写体がレーンマークであるか否かの信頼度を算出する信頼度算出部と、
過去に検出されたレーンマークの位置から今回のレーンマークの位置を推定するレーンマーク位置推定部と、
上記信頼度算出部により算出された信頼度に基づいて、上記撮影画像に写っている被写体の中からレーンマーク候補を抽出するレーンマーク候補抽出部と、
上記レーンマーク位置推定部により推定されたレーンマークの位置と、上記レーンマーク候補抽出部により抽出されたレーンマーク候補の位置と、上記信頼度算出部により上記レーンマーク候補について算出された信頼度とに基づいて、上記推定されたレーンマークの位置または上記レーンマーク候補の位置を補正し、当該補正した位置をレーンマークの位置として検出するレーンマーク検出部と
上記撮影画像を水平方向に1ラインずつスキャンしていったときに周囲との輝度差が大きくなる水平部分をスライスとして抽出し、垂直方向に隣接するスライスどうしで水平方向の座標値の少なくとも一部が重複している複数のスライスをグルーピングする線分抽出部とを備え、
上記距離評価値算出部は、上記線分抽出部によってグルーピングされたグループ内での複数のスライスの数に関する評価値を算出するスライス数評価値算出部と、
上記撮影画像をX軸方向およびY軸方向の2次元平面とし、上記撮像装置から上記被写体のエッジまでのX軸方向の距離の評価値を算出するX軸方向距離評価値算出部と、
上記撮像装置から上記被写体のエッジまでのY軸方向の距離の評価値を算出するY軸方向距離評価値算出部と
を備えたことを特徴とするレーンマーク検出装置。
A shape evaluation value calculation unit for calculating an evaluation value of a shape regarding whether or not a subject reflected in a captured image input from the imaging device has a shape of a lane mark;
A distance evaluation value calculation unit that calculates an evaluation value of a distance related to how far the subject in the captured image is located from the imaging device;
A reliability calculation unit that calculates a reliability of whether or not the subject is a lane mark based on the evaluation value of the shape and the evaluation value of the distance;
A lane mark position estimation unit that estimates the position of the current lane mark from the position of the lane mark detected in the past;
Based on the reliability calculated by the reliability calculation unit, a lane mark candidate extraction unit that extracts lane mark candidates from the subject shown in the captured image;
The position of the lane mark estimated by the lane mark position estimation unit, the position of the lane mark candidate extracted by the lane mark candidate extraction unit, and the reliability calculated for the lane mark candidate by the reliability calculation unit Lane mark detection unit for correcting the estimated position of the lane mark or the position of the lane mark candidate, and detecting the corrected position as the position of the lane mark ,
When the captured image is scanned line by line in the horizontal direction, a horizontal portion where the luminance difference from the surroundings becomes large is extracted as a slice, and at least a part of the coordinate value in the horizontal direction between adjacent slices in the vertical direction A line segment extraction unit for grouping a plurality of overlapping slices,
The distance evaluation value calculation unit, a slice number evaluation value calculation unit for calculating an evaluation value related to the number of slices in the group grouped by the line segment extraction unit,
An X-axis direction distance evaluation value calculating unit configured to calculate an evaluation value of a distance in the X-axis direction from the imaging device to the edge of the subject, with the captured image being a two-dimensional plane in the X-axis direction and the Y-axis direction;
A Y-axis direction distance evaluation value calculation unit that calculates an evaluation value of a distance in the Y-axis direction from the imaging device to the edge of the subject;
A lane mark detection device comprising:
レーンマーク検出装置の線分抽出部が、撮像装置より入力される撮影画像を水平方向に1ラインずつスキャンしていったときに周囲との輝度差が大きくなる水平部分をスライスとして抽出し、垂直方向に隣接するスライスどうしで水平方向の座標値の少なくとも一部が重複している複数のスライスをグルーピングする第1のステップと、
上記レーンマーク検出装置の形状評価値算出部が、上記撮影画像に写っている被写体がレーンマークの形状をしているか否かに関する形状の評価値を算出する第のステップと、
上記レーンマーク検出装置の距離評価値算出部が、上記撮影画像に写っている被写体が上記撮像装置からどの程度の距離に存在するかに関する距離の評価値を算出する第のステップと、
上記レーンマーク検出装置の信頼度算出部が、上記形状の評価値および上記距離の評価値に基づいて、上記被写体がレーンマークであるか否かの信頼度を算出する第のステップとを有し、
上記第3のステップにおいて、上記距離評価値算出部は、上記線分抽出部によってグルーピングされたグループ内での複数のスライスの数に関する評価値を算出し、
上記撮影画像をX軸方向およびY軸方向の2次元平面とし、上記撮像装置から上記被写体のエッジまでのX軸方向の距離の評価値を算出し、
上記撮像装置から上記被写体のエッジまでのY軸方向の距離の評価値を算出する
ことを特徴とするレーンマークの信頼度算出方法。
When the line segment extraction unit of the lane mark detection device scans the captured image input from the imaging device one line at a time in the horizontal direction, the horizontal portion where the luminance difference from the surroundings becomes large is extracted as a slice, and is extracted vertically. A first step of grouping a plurality of slices in which at least some of the horizontal coordinate values overlap between adjacent slices in the direction;
Shape evaluation value calculation unit of the lane mark detection device, a second step of the subject that is reflected in the captured image to calculate the evaluation value of the shape to whether in the shape of a lane mark,
A third step in which a distance evaluation value calculation unit of the lane mark detection device calculates an evaluation value of a distance related to how far the object shown in the captured image exists from the imaging device;
A fourth step in which a reliability calculation unit of the lane mark detection device calculates a reliability of whether or not the subject is a lane mark based on the evaluation value of the shape and the evaluation value of the distance; And
In the third step, the distance evaluation value calculation unit calculates an evaluation value related to the number of slices in the group grouped by the line segment extraction unit,
The captured image is a two-dimensional plane in the X-axis direction and the Y-axis direction, and an evaluation value of the distance in the X-axis direction from the imaging device to the edge of the subject is calculated.
An evaluation value of a distance in a Y-axis direction from the imaging device to the edge of the subject is calculated.
JP2012057155A 2012-03-14 2012-03-14 Lane mark detection device and lane mark reliability calculation method Active JP5959245B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012057155A JP5959245B2 (en) 2012-03-14 2012-03-14 Lane mark detection device and lane mark reliability calculation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012057155A JP5959245B2 (en) 2012-03-14 2012-03-14 Lane mark detection device and lane mark reliability calculation method

Publications (2)

Publication Number Publication Date
JP2013191040A JP2013191040A (en) 2013-09-26
JP5959245B2 true JP5959245B2 (en) 2016-08-02

Family

ID=49391204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012057155A Active JP5959245B2 (en) 2012-03-14 2012-03-14 Lane mark detection device and lane mark reliability calculation method

Country Status (1)

Country Link
JP (1) JP5959245B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6935977B2 (en) * 2017-07-31 2021-09-15 アルパイン株式会社 Lane mark detector

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04299799A (en) * 1991-03-28 1992-10-22 Toyota Motor Corp Line detector
JPH05314396A (en) * 1992-05-13 1993-11-26 Omron Corp Continuous line tracking device
JP3143814B2 (en) * 1993-01-19 2001-03-07 アイシン精機株式会社 Method for detecting the distance of an object ahead of the vehicle
JPH07244717A (en) * 1994-03-02 1995-09-19 Mitsubishi Electric Corp Travel environment recognition device for vehicle
JP3326988B2 (en) * 1994-09-20 2002-09-24 富士通株式会社 Road environment recognition device
JP3463397B2 (en) * 1995-02-09 2003-11-05 日産自動車株式会社 Roadway detection device
JP3882304B2 (en) * 1997-07-04 2007-02-14 日産自動車株式会社 Self-driving vehicle position detector
JP3986363B2 (en) * 2002-05-20 2007-10-03 アイシン精機株式会社 Lane boundary detection device
JP2007179386A (en) * 2005-12-28 2007-07-12 Fujitsu Ten Ltd Method and apparatus for recognizing white line
JP5251800B2 (en) * 2009-09-16 2013-07-31 株式会社豊田中央研究所 Object tracking device and program
JP5220787B2 (en) * 2010-03-08 2013-06-26 株式会社日本自動車部品総合研究所 In-vehicle white line recognition device

Also Published As

Publication number Publication date
JP2013191040A (en) 2013-09-26

Similar Documents

Publication Publication Date Title
US10659762B2 (en) Stereo camera
JP5472538B2 (en) Distance measuring device and environmental map generating device
US11667036B2 (en) Workpiece picking device and workpiece picking method
JP6465682B2 (en) Information processing apparatus, information processing method, and program
US20130016915A1 (en) Crosswalk detection device, crosswalk detection method and recording medium
JP5164351B2 (en) Object detection apparatus and object detection method
EP2858037B1 (en) Moving object detector
US10554945B2 (en) Stereo camera
JP2007037011A (en) Image processing apparatus
JP2012159469A (en) Vehicle image recognition device
JP2014056536A (en) Information processor, information processing method, and program
JP2017058274A (en) Measurement device, method, and program
JP5548212B2 (en) Crosswalk sign detection method and crosswalk sign detection device
JP2013190842A (en) Lane mark detector and lane mark detection method
US10380743B2 (en) Object identifying apparatus
JP2013222302A (en) Mounting angle correction device for in-vehicle camera and mounting angle correction method
JP5863517B2 (en) Lane mark detection device and lane mark search range setting method
JP5959245B2 (en) Lane mark detection device and lane mark reliability calculation method
JP5889046B2 (en) Lane mark detection apparatus and lane mark detection method
JP2012159470A (en) Vehicle image recognition device
US10339394B2 (en) Step detection device and step detection method
JP4969628B2 (en) Traveling line detector
JP7152506B2 (en) Imaging device
JP2013220729A (en) Mounting angle correcting device and method of correcting mounting angle of in-vehicle camera
CN112400094B (en) Object detecting device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140926

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150707

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150902

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160406

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160621

R150 Certificate of patent or registration of utility model

Ref document number: 5959245

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150