JPH0290380A - Running path discriminating method - Google Patents

Running path discriminating method

Info

Publication number
JPH0290380A
JPH0290380A JP63243330A JP24333088A JPH0290380A JP H0290380 A JPH0290380 A JP H0290380A JP 63243330 A JP63243330 A JP 63243330A JP 24333088 A JP24333088 A JP 24333088A JP H0290380 A JPH0290380 A JP H0290380A
Authority
JP
Japan
Prior art keywords
straight line
image data
image
running path
running
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63243330A
Other languages
Japanese (ja)
Inventor
Shigeto Nakayama
仲山 茂人
Hiroshi Hasegawa
洋 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP63243330A priority Critical patent/JPH0290380A/en
Priority to DE68925091T priority patent/DE68925091T2/en
Priority to EP89309876A priority patent/EP0361914B1/en
Publication of JPH0290380A publication Critical patent/JPH0290380A/en
Priority to US08/032,409 priority patent/US5359666A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To execute discrimination at high speed by extracting a first straight line corresponding to one running path end on image data obtained by bringing a running path to image pickup, and extracting a second straight line corresponding to an other running part end, based on its position, horizontal line position and running road width information. CONSTITUTION:Image data of a running path which is inputted by a camera 1 is stored temporarily in an image memory 3. Subsequently, a straight line group corresponding to the feature of an image is obtained by a DDA arithmetic part 5 through a pre-processing part 4, filtering, sorting and clustering are performed and a first straight line corresponding to one running path end is extracted by a straight line extracting/selecting part 9. Also, based on the horizontal line position calculated on the image data, based on position information of the camera 1, the position of a first straight line and running road width information which is set in advance, a second straight line corresponding to the other running path end is extracted. A discriminating part 10 discriminates the shape of the running path, based on the first straight line and the second straight line, and the shape of the running path can be recognized at high speed.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は画像処理によって走行路の形状を認識するに際
して、その走行路端を容易に判別できるようにした走行
路判別方法に関するものである。
DETAILED DESCRIPTION OF THE INVENTION [Industrial Application Field] The present invention relates to a traveling road discrimination method that allows the edges of the traveling road to be easily determined when the shape of the traveling road is recognized by image processing.

〔従来の技術〕[Conventional technology]

走行路の形状を認識するに際しては、その端部(走行路
端)を判別することが必要になる。このためには、TV
左カメラどによって得られたブタを画像処理し、走行路
端に対応した線分を抽出することか必要になり、その一
方法としてHough変換を用いたものがある(例えば
特開昭62−24310号、同62−70916号など
)。これによれば、画像データとして得られた画像上の
各特徴点に対してHough変換を行なうことにより、
特徴点の分布の特徴に対応した直線群を求めることがで
きる。
In order to recognize the shape of a travel road, it is necessary to determine its end (traveling road edge). For this purpose, TV
It is necessary to process the image of the pig obtained by the left camera and extract the line segment corresponding to the edge of the road, and one method is to use Hough transformation (for example, Japanese Patent Laid-Open No. 62-24310 No. 62-70916, etc.). According to this, by performing Hough transformation on each feature point on an image obtained as image data,
It is possible to obtain a group of straight lines corresponding to the characteristics of the distribution of feature points.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

しかしなから、上記の画像処理により得られる直線群は
極めて多数の直線から構成されるので、どの直線が走行
路端に対応しているのかを判別することは容易でない。
However, since the straight line group obtained by the above image processing is composed of an extremely large number of straight lines, it is not easy to determine which straight line corresponds to the edge of the road.

特に、自動車などの走行制御に応用しようとするときに
は、走行路端に対応する直線は短時間で抽出しなければ
ならないか、従来のものではこれは困難なことであった
In particular, when applying this method to travel control of automobiles, it is necessary to extract straight lines corresponding to the edges of the road in a short period of time, which is difficult to do with conventional methods.

本発明は上記の問題点を克服するためになされたもので
、画像処理により得られた多数の直線から、走行路端に
対応する一対の直線を容易にかつ高速に抽出することの
できる走行路判別方法を提供することを目的とする。
The present invention has been made to overcome the above-mentioned problems, and is capable of easily and quickly extracting a pair of straight lines corresponding to the edge of the traveling road from a large number of straight lines obtained through image processing. The purpose is to provide a discrimination method.

〔課題を解決するための手段〕[Means to solve the problem]

本発明に係る走行路判別方法は、走行路をカメラで撮像
して得られた画像データに含まれる特徴点からその形状
を判別する走行路判別方法において、特徴点の並びに近
似した直線群を求める第1のステップと、あらかじめ設
定されたカメラ位置情報にもとづき画像データ上で地平
線位置を演算する第2のステップと、画像データ上で一
方の走行路端に対応して現われる特徴点の並びに近似し
た第1の直線を上記の直線群の中から抽出する第3のス
テップと、画像上の地平線位置と第1の直線の位置とあ
らかじめ設定された走行路幅情報にもとづき、画像上で
の他方の走行路端に対応して現れる特徴点の並びに近似
した第2の直線を、地平線位置と第1の直線の交点近傍
を通りかつ第1の直線の位置と走行路幅情報に対応した
距離だけ離れた直線群の中から抽出する第4のステップ
とを備え、第1および第2の直線にもとづいて走行路の
形状を判別することを特徴とする。
A driving path determination method according to the present invention is a driving path determination method in which the shape of a driving path is determined from characteristic points included in image data obtained by imaging the driving path with a camera, and an arrangement of feature points and a group of approximate straight lines are determined. The first step is calculating the horizon position on the image data based on preset camera position information, and the second step is calculating the horizon position on the image data based on the camera position information set in advance. A third step of extracting the first straight line from the above straight line group, and a third step of extracting the other straight line on the image based on the horizon position on the image, the position of the first straight line, and preset driving road width information. A second straight line approximated by the arrangement of feature points that appear corresponding to the edge of the driving road passes through the vicinity of the intersection of the horizon position and the first straight line and is separated by a distance corresponding to the position of the first straight line and the driving road width information. and a fourth step of extracting from a group of straight lines, and the shape of the traveling path is determined based on the first and second straight lines.

〔作用〕[Effect]

本発明においては、画像処理により得られた多数の直線
の中から一方の走行路端に対応するものを決定し、地平
線および走行路(道路)幅との対応関係から他方の走行
路端に対応する直線を予測し、その予測にもとづいて上
記他方の走行路端に対応する直線を抽出している。この
ため、一対の直線を効率よく見出すことが可能になる。
In the present invention, from among a large number of straight lines obtained through image processing, one that corresponds to one running road edge is determined, and the one corresponding to the other running road edge is determined based on the correspondence with the horizon line and the running road (road) width. The straight line corresponding to the other road edge is extracted based on the prediction. Therefore, it becomes possible to efficiently find a pair of straight lines.

〔実施例〕〔Example〕

以下、添付図面を参照して本発明の詳細な説明する。 Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

第1図は本発明の基本概念を示している。まず、走行車
両に搭載されたカメラにより取り込まれる情景が、例え
ば第1図(a)のようになっているとする。すなわち、
走行路端51を境界とする走行路左端にはガードレール
52、右側にはあぜ道53があり、地平線54の上には
山脈55が存在している。このような情景を原画像とし
て撮像し、微分して得られるエツジ化データをドツト5
6で表現すると、例えば第1図(b)のようになる。
FIG. 1 shows the basic concept of the invention. First, assume that a scene captured by a camera mounted on a traveling vehicle is, for example, as shown in FIG. 1(a). That is,
There is a guardrail 52 at the left end of the running road with the running road edge 51 as the boundary, a furrow road 53 on the right side, and a mountain range 55 above the horizon 54. Such a scene is captured as an original image, and the edge data obtained by differentiation is used as a dot 5.
6, it becomes, for example, as shown in FIG. 1(b).

そこで、このドツト56に対して後述のHough変換
を施して線分抽出処理を行なっていくと、第1図(C)
のような直線L −LSI Ω1、Ω2などを含む直線群が得られる。
Therefore, when performing Hough transformation to be described later on this dot 56 and performing line segment extraction processing, as shown in Fig. 1(C).
A straight line group including the straight lines L-LSI Ω1, Ω2, etc. is obtained.

このHough変換の結果に対し、後述のフィルタリン
グ処理、ソーティング処理およびクラスタリング処理を
行なうと、画像データ(ドツト56)の最も特徴的な並
びに近似した直線を代表値として求めることができる。
By performing filtering processing, sorting processing and clustering processing, which will be described later, on the result of this Hough transformation, it is possible to obtain the most characteristic and approximate straight line of the image data (dots 56) as representative values.

いま、右側の走行路端51に対応する直線Ω1が最大の
代表値に対応しているとすると、この直線p1は第1図
(d)のように描かれ、これは地平線位置Hとこれに平
行な下側平行ラインHとに交叉することになる。
Now, assuming that the straight line Ω1 corresponding to the right side road edge 51 corresponds to the maximum representative value, this straight line p1 is drawn as shown in FIG. It intersects the parallel lower parallel line H.

ここで、地平線位置Hはカメラの設置位置等(カメラ位
置情報)から計算することができ、下側平行ラインHに
おける走行路端51の間隔もν カメラの設置位置や走行路幅等(走行路幅情報)から計
算することができるので、他方の走行路端5]は第1図
(d)の直線L  、L  のいずれかR にあることが理論的に求まる。そこで、前述の代表値を
調べてみると左側の直線がこれに対応していることかわ
かり、第2の直線ρ2を第1図(e)のように求めるこ
とができる。
Here, the horizon position H can be calculated from the camera installation position, etc. (camera position information), and the distance between the running road edges 51 on the lower parallel line H is also ν. Since it can be calculated from the width information), it can be theoretically determined that the other running road edge 5] lies on either straight line R of straight lines L and L shown in FIG. 1(d). Therefore, by examining the aforementioned representative values, it can be seen that the straight line on the left side corresponds to this, and the second straight line ρ2 can be determined as shown in FIG. 1(e).

次に、本発明の実施例を順次説明していく。Next, embodiments of the present invention will be sequentially described.

第2図は本発明の実施例か適用可能な走行路判別装置を
、機能実現手段の結合として表現した概念図である。図
示の通り、カメラ1で取り込まれた走行路の画像データ
はA/D変換部2でディジタルデータに変換され、画像
メモリ3に一時的に格納される。画像メモリ3から読み
出された画像データは前処理部4に与えられ、ここで微
分によるエツジ検出、ルックアップテーブル(LUT)
による閾値処理、領域設定、座標変換などが行なわれる
。DDA演算部5はいわゆるディジタル微分解析(Di
gital Differential Analys
is )を行なうもので、Rough変換がパイプライ
ン方式でなされる。そして、このRough変換によっ
て画像の特徴に対応する直線群が得られる。
FIG. 2 is a conceptual diagram illustrating a driving route discriminating device to which an embodiment of the present invention can be applied, as a combination of function realizing means. As shown in the figure, the image data of the driving route captured by the camera 1 is converted into digital data by the A/D converter 2 and temporarily stored in the image memory 3. The image data read out from the image memory 3 is given to the preprocessing unit 4, where it is subjected to edge detection by differentiation and look-up table (LUT).
Threshold processing, area setting, coordinate transformation, etc. are performed. The DDA calculation unit 5 performs so-called digital differential analysis (Di
Digital Differential Analyzes
is), and Rough conversion is performed in a pipeline manner. Then, through this Rough transformation, a group of straight lines corresponding to the features of the image is obtained.

Hough変換により得られた直線群に関するデータは
近傍フィルタリング部6に与えられ、ここで例えば8近
傍フイルタリング処理が施された後に、ピークソーティ
ング部7に与えられ、さらにクラスタリング部8におけ
るクラスタリング処理によって代表値が選ばれ、これが
直線抽出/選定部9に送られる。抽出および選定された
直線に関するデータは判別部10に送られ、ここで走行
路の形状が判別される。判別出力は外部の装置(図示せ
ず)に送られると共に、モニタ制御部11にも送られ、
走行路の画像と共にモニタ12で表示される。なお、上
記の機能実現手段の動作はコントローラ13で制御され
る。また、初期設定部14は走行路幅のデータ、カメラ
位置のデータなどを初期設定するために用いられる。
The data related to the straight line group obtained by Hough transformation is given to the neighborhood filtering section 6, where it is subjected to, for example, 8 neighborhood filtering processing, and then given to the peak sorting section 7, and furthermore, it is given to the peak sorting section 7 by the clustering processing in the clustering section 8 to A value is selected and sent to the straight line extraction/selection section 9. The data regarding the extracted and selected straight lines is sent to the determining section 10, where the shape of the traveling path is determined. The determination output is sent to an external device (not shown) and also to the monitor control unit 11,
It is displayed on the monitor 12 together with the image of the running route. Note that the operation of the above function realizing means is controlled by the controller 13. Further, the initial setting section 14 is used to initialize data on the driving road width, data on the camera position, and the like.

次に、上記装置に適用された実施例方法を順次に説明す
る。
Next, embodiment methods applied to the above apparatus will be sequentially explained.

第3図は処理の流れを全体的に示すフローチャートであ
る。ます、処理の開始に際しては初期設定が行なわれる
(ステップ201)。この初期設定には走行路幅WRの
設定の他、カメラ1の俯角θ 、カメラ1のレンズ焦点
距離f1カメラ1の取付高さHcが含まれる。これを第
4図および第5図により説明する。
FIG. 3 is a flowchart showing the overall process flow. First, when starting the process, initial settings are performed (step 201). In addition to setting the traveling road width WR, this initial setting includes the depression angle θ of the camera 1, the lens focal length f1 of the camera 1, and the mounting height Hc of the camera 1. This will be explained with reference to FIGS. 4 and 5.

第4図(a)に示すように、走行路31上に走行車両3
2が存在しているとし、走行車両32にはカメラ1が固
設されているとする。すると、カメラ1の俯角θ。およ
び取付高さHeは構造上あらかしめ既知の値として設定
できる。また、レンズ焦点距離fについてもカメラ1の
構造から既知の値として設定できる。なお、第4図(b
)は同図(a)の光学系の位置関係を拡大して示したち
ノテする。一方、走行路幅WRについては第5図に示す
ものか設定される。上記のデータが設定されると、第5
図に示すような画像下端部での走行路幅wrを求めるこ
とができる。すなわち、画像上の走行路幅wrは wr=(WR’  ・ f) /f(L    +H−tan  θ  )cos  
θ  )low      c          o
          。
As shown in FIG. 4(a), a traveling vehicle 3 is placed on a traveling path 31.
2 exists, and it is assumed that the camera 1 is fixedly installed on the traveling vehicle 32. Then, the depression angle θ of camera 1. The mounting height He can be set as a known value based on the structure. Further, the lens focal length f can also be set as a known value based on the structure of the camera 1. In addition, Fig. 4 (b
) is an enlarged view of the positional relationship of the optical system in figure (a). On the other hand, the traveling road width WR is set as shown in FIG. Once the above data is set, the fifth
The running road width wr at the lower end of the image as shown in the figure can be determined. That is, the running road width wr on the image is wr=(WR'・f)/f(L+H-tan θ)cos
θ )low co
.

・・・ (1) となる。ここで、画像下端部y  に写る距離ow L  は第4図(b)において low ”low =H/jan  (θ +tan   (y   /f
)’1c      o       low・・・(
2) として求まり、カメラの向きと道の向きが傾いている場
合を考慮した道幅WR’ は、第5図(b)おいて傾き
角ψから W R’ = W R/ s i nψ       
−(3)として求まる。
... (1) becomes. Here, the distance ow L reflected at the lower end y of the image is low "low = H/jan (θ + tan (y /f) in FIG. 4(b).
)'1c o low...(
2) The road width WR', which takes into account the case where the direction of the camera and the direction of the road are inclined, is calculated from the inclination angle ψ in Fig. 5(b) as follows: WR' = WR/ sin ψ
−(3).

次に、第3図のステップ202として、画像上での地平
線の算出かなされる。この地平線位置Hは第4図(b)
において、 H=f−tan θ。         −(4)とし
て算出される。
Next, in step 202 in FIG. 3, the horizon on the image is calculated. This horizon position H is shown in Figure 4(b)
In, H=f-tan θ. −(4).

以上のような前段階の処理か終了したら、画像データを
人力し、走行路を判別する処理を繰り返して実行する。
After completing the above-mentioned pre-processing, the image data is manually input and the process of determining the driving route is repeatedly executed.

すなわち、まず第3図のステップ205において画像デ
ータをディジタルデータとして第2図の画像メモリ3か
ら入力し、前処理部4で所定の前処理を行なう。ここで
は、例えば5obe Iなどのエツジ検出を行ない、こ
のエツジ化データについて第2図のDDA演算部5でH
ough変換を行なう。このHough変換は直列接続
された複数のDDA演算回路(図示せず)を用いてパイ
プライン方式で行なうことができるが、その処理の概要
は例えば、米国特許第3069654号や本出願人によ
る特願昭63112243号に示されている。すなわち
、エツジ画像におけるあるエツジ点を通る直線を考え、
その直線に対して所定の原点から垂線を引く。そして、
この垂線の長さをρ、この垂線と画像上の座標の横軸と
のなす角をθとして上記θの値を変えていくと、そのエ
ツジ点を通る直線群が、Hough曲線と呼ばれるサイ
ンカーブに変換され、ρ、θ平面上に描かれていく。こ
のHo u gh凸曲線各エツジ点ごとに異なり、画像
上で同一直線上に並ぶようなエツジ点については、ρ、
θ平面でひとつの交点を有しているので、このρ−θ平
面上でのHough曲線の重なり具合いを調べることで
、エツジ点の並びに近似した直線pをρ、θの値で求め
ることができる。
That is, first, in step 205 in FIG. 3, image data is input as digital data from the image memory 3 in FIG. 2, and preprocessing section 4 performs predetermined preprocessing. Here, edges such as 5obe I are detected, and this edge data is processed by the DDA calculation section 5 in FIG.
Perform ough conversion. This Hough conversion can be performed in a pipeline method using a plurality of serially connected DDA calculation circuits (not shown), but the outline of the process can be found in, for example, US Pat. No. 3,069,654 and the patent application filed by the applicant. It is shown in Sho 63112243. In other words, consider a straight line that passes through a certain edge point in an edge image,
A perpendicular line is drawn from a predetermined origin to the straight line. and,
If the length of this perpendicular is ρ, and the angle between this perpendicular and the horizontal axis of the coordinates on the image is θ, and the value of θ is changed, a group of straight lines passing through the edge points will form a sine curve called a Hough curve. and is drawn on the ρ, θ plane. This Ho u gh convex curve is different for each edge point, and for edge points that line up on the same straight line on the image, ρ,
Since there is one point of intersection on the θ plane, by examining the degree of overlap of the Hough curves on this ρ-θ plane, the arrangement of edge points and the approximate straight line p can be found using the values of ρ and θ. .

これを、第6図面の簡単な説明する。This will be briefly explained in the sixth drawing.

いま、x−y平面(画像平面)上のエツジが、第6図(
a)に示すようにEP  、EPl。
Now, the edges on the x-y plane (image plane) are shown in Figure 6 (
EP, EPl as shown in a).

EP2の3点であったとする。すると、各エツジEPo
−EP2のそれぞれにつき1本づつのHo u gh凸
曲線サインカーブ)がρ−θ平面で描かれ、しかもエツ
ジE P oとEP、による2本のHough曲線は(
ρ 、θ )で交点をもち、エツジEP  とE P 
2による2本のHough曲線は(ρ 、θ )で交点
をもつ。そこで、第6図(b)のようにEPo〜EP1
4の15個のエツジが並んでいたとすると、各エツジに
ついて各1本づつのHough曲線がρ−θ平面で描か
れることになる。そして、エツジEPo−EP8の9本
のHough曲線については(ρ 、θ )でCC 交叉し、エツジEP  −EP、0の3本のHough
曲線については(ρ 、θ )で交叉b し、エツジEP  −EPl4の5本のHo u g 
h曲線については(ρ 、θ )で交叉する。
Assume that there are 3 points for EP2. Then, each edge EPo
- One Hough convex curve sine curve for each of EP2) is drawn on the ρ-θ plane, and the two Hough curves due to edges EP o and EP are (
ρ, θ), and the edges EP and EP
The two Hough curves according to 2 have an intersection at (ρ, θ). Therefore, as shown in FIG. 6(b), EPo~EP1
If 15 edges of 4 are lined up, one Hough curve will be drawn for each edge on the ρ-θ plane. Then, the nine Hough curves of edge EPo-EP8 cross CC at (ρ, θ), and the three Hough curves of edge EPo-EP, 0
The curve intersects at (ρ, θ), and the five edges EP-EPl4 are
The h curve intersects at (ρ, θ).

a 上記の説明から明らかなように、Rough曲線の交点
の頻度か高い点(ρ、θ)から、エツジの並びに近似し
た直線を求められ、画像におけるデータの特徴的な並び
を認識することができることになる。
a As is clear from the above explanation, it is possible to find a straight line that approximates the edge arrangement from the points (ρ, θ) with a high frequency of intersections of the Rough curves, and to recognize the characteristic arrangement of data in an image. become.

次に、第3図のステップ210に対応するフィルタリン
グ処理を第7図により説明する。
Next, the filtering process corresponding to step 210 in FIG. 3 will be explained with reference to FIG.

第7図はρ、θ座標におけるカウント値(各エツジ点に
より生じたHough曲線の重なり具合い)を示してい
る。ここで8近傍のフィルタリング処理は、ある(ρ、
、θ、)におけるカウント1       j 値 C0,について、その近傍の8つのカウントlJ 値と比較することで行なう。すなわち、(ρ、−1゜θ
、 )〜(p、 、θ、 )のカウント値を、+−11
+l   J+1 C1、〜C1、とじたときに、C1、 l−1,,1−11+1.J+1         1
.3かいずれのカウント値よりも大であるときに、これ
をピークとして抽出する。従って、例えば第7図の符号
F1で示す範囲では(ρ 、θ )=7はピークとして
抽出されるが、符号F2で示す(ρ 、θ6)=6はピ
ークとして抽出されない。
FIG. 7 shows count values at the ρ and θ coordinates (the extent to which Hough curves generated by each edge point overlap). Here, the 8-neighborhood filtering process is (ρ,
This is done by comparing the count 1 j value C0, at , θ, ) with eight count lJ values in its vicinity. That is, (ρ, −1°θ
, ) ~ (p, , θ, ) count value +-11
+l J+1 C1, ~C1, when closed, C1, l-1,,1-11+1. J+1 1
.. When the count value is greater than any of the three count values, this is extracted as a peak. Therefore, for example, in the range indicated by F1 in FIG. 7, (ρ, θ)=7 is extracted as a peak, but (ρ, θ6)=6, indicated by F2, is not extracted as a peak.

フィルタリング処理の次には、ソーティング処理がなさ
れる。これは、上記のカウント値Cの大きい順にデータ
を並びかえるもので、ソフトウェアにより実現してもよ
く、専用のハードウェアにより実現してもよい。
After the filtering process, a sorting process is performed. This is to rearrange the data in descending order of the count value C described above, and may be realized by software or by dedicated hardware.

以上のソーティング処理が終了したら、次にクラスタリ
ング処理による代表値の選定がなされる(第3図のステ
ップ213)。これを第8図ないし第10図により説明
する。
After the above sorting process is completed, representative values are selected by clustering process (step 213 in FIG. 3). This will be explained with reference to FIGS. 8 to 10.

第8図はソーティングされたデータを示している。ここ
で、カウント値C,C,C2,・・・ロー Cについては、ソーティング処理によってC>C>C>
・・・〉Cとなっている。り0  1  2     
n−1 ラスクリング処理にあたっては、第9図のフローチャー
トの如くまずに=0.i−1に設定しくステップ501
)、ステップ502〜515の処理が繰り返される。そ
こで、上記i、kを用いてこの処理を一般的に説明する
と、次のようになる。
FIG. 8 shows the sorted data. Here, for the count values C, C, C2, . . . low C, C>C>C> by the sorting process.
...>C. R0 1 2
n-1 In the rusk ring process, firstly, as shown in the flowchart of FIG. Step 501: Set to i-1.
), the processing of steps 502 to 515 is repeated. Therefore, a general explanation of this process using the above i and k will be as follows.

まずステップ502において、i>kとなっているi番
目の直線がすでに他の直線の仲間になっているか否かが
調べられ、仲間となっていないときに ρ −Δρ≦ρ・ ≦ρに+Δρ に1 θ −Δθ≦θ、≦θに十Δθ k          」 が調べられる(ステップ504)。そして、上記の関係
が成立するときのみi番目の直線はに番目の直線の仲間
とされる(ステップ505)。次に、iに1が加算され
(ステップ507)、データが有りのときのみ(ステッ
プ508)i番目のカウント値C1か最大のものに比べ
て小さすぎないか調べられる(ステップ510)。これ
は、カウント値があまり小さいものは処理の必要性が乏
しいからである。
First, in step 502, it is checked whether the i-th straight line with i>k is already a member of another straight line, and if it is not a member, ρ −Δρ≦ρ・≦ρ +Δρ 1 θ −Δθ≦θ, ≦θ 1 Δθ k ” is checked (step 504). Then, only when the above relationship is established, the i-th straight line is determined to be a member of the i-th straight line (step 505). Next, 1 is added to i (step 507), and only when data is present (step 508), it is checked whether the i-th count value C1 is too small compared to the maximum value (step 510). This is because if the count value is too small, there is little need for processing.

小さすぎな、・いときは再びステップ502の処理こ戻
るが、小さすぎるときはkに1が加算され(ステップ5
11)、別のクラスタリングがステップ513から始め
られる。すなわち、k番目の直線がすでに他の直線の仲
間になっているか否かが調べられ(ステップ513)、
仲間となっているときにはステップ511でkに1が加
算されて再びステップ513が実行される。仲間となっ
ていないときは、k番目の次のi  (=に+1)番目
について(ステップ515)、再びステップ502か実
行される。
If it is too small, the process returns to step 502, but if it is too small, 1 is added to k (step 5).
11), another clustering is started from step 513. That is, it is checked whether the kth straight line is already a member of another straight line (step 513),
If they are friends, 1 is added to k in step 511, and step 513 is executed again. If they are not friends, step 502 is executed again for the i (=+1)th after the kth (step 515).

上記の処理によってクラスタリングを行なった具体例を
第10図に示す。同図において、第1の代表値はp =
 200 [dots) 、θ−45(deg)であり
、第2の代表値はρ= 240 [dots) 、θ=
123[deg]であることがわかる。
A specific example of clustering performed by the above process is shown in FIG. In the same figure, the first representative value is p =
200 [dots), θ-45 (deg), and the second representative value is ρ=240 [dots), θ=
It can be seen that it is 123 [deg].

上記の処理の後には、第3図にステップ214゜216
で示す理論値にもとづく直線抽出および選定がなされる
。第11図および第12図はそのフローチャートである
。第1の直線、1!1の抽出は、第11図のフローチャ
ートに示すように、まず第N(=1)番目の代表値の直
線が第1の直線ρ1として取り出され(ステップ551
)、この直線□ に対して右側と左側の直線g 1g  の理論値2r 
   2  g が調べられる(ステップ552,554)。ここで、第
1の直線をΩ=(ρ 、θ )とすると、右側の直線β
 =(ρ 、θ )の理論値ρ2.。
After the above processing, steps 214 and 216 are shown in FIG.
Straight lines are extracted and selected based on the theoretical values shown in . FIGS. 11 and 12 are flowcharts thereof. To extract the first straight line, 1!1, as shown in the flowchart of FIG.
), the theoretical value 2r of the straight line g 1g on the right and left side of this straight line □
2 g is examined (steps 552, 554). Here, if the first straight line is Ω=(ρ, θ), then the right straight line β
= Theoretical value of (ρ, θ) ρ2. .

2r      2r    2r θ2.は ρ =H−5inθ2r 2r     。2r 2r 2r θ2. teeth ρ=H-5inθ2r 2r.

θ2r=tan(〔(ρ1/cosθ1)+wr)〕 
l/Hl        ・・・ (5)として求めら
れ、左側の直線ρ  =(ρ2Ω   2β′ θ  )の理論値ρ  、θ  は 2g      2Ω  2ρ 020=H’5fn02Ω θ 2 、=tan−’l[”(ρ   /cos  
 θ   )wr)/H)      ・・・(6)と
して求められる。そして、上記直線Ω1に対応する代表
値以外の代表値に理論値式(5)、(6)と近いものが
あるまで(ステップ557)、上記の操作が繰り返され
る(ステップ558)。
θ2r=tan([(ρ1/cosθ1)+wr)]
l/Hl... (5) The theoretical values ρ, θ of the left straight line ρ = (ρ2Ω 2β' θ) are 2g 2Ω 2ρ 020=H'5fn02Ω θ 2 , =tan-'l["( ρ/cos
θ )wr)/H) ...(6). Then, the above operation is repeated (step 558) until there is a representative value other than the representative value corresponding to the straight line Ω1 that is close to the theoretical value equations (5) and (6) (step 557).

ここで、第1の直線Ω1が第1図(C)のようになって
いるとすると、理論値は走行路画像幅wrと地平線位置
Hの関係から求められるが、この理論値に対応する代表
値の直線がステップ560の処理結果として第1図(C
)中のL2であったとする。このときには、これを第2
の直線Ω2の候補直線として直線確定操作を行なう(ス
テップ561)。
Here, if the first straight line Ω1 is as shown in FIG. A straight line of values is shown in FIG. 1 (C
) is assumed to be L2. At this time, change this to the second
A straight line determination operation is performed as a candidate straight line for the straight line Ω2 (step 561).

ステップ561の処理の詳細は、第12図のようになっ
ている。まず、第2の直線Ω2の候補直線のグループを
作る(ステップ571)。このグループの作り方として
は、代表値のうち所定範囲内のものをまとめる方式や、
Hough変換の際の分割数を補間する方式などがある
が、いずれにせよ理論値に近い直線L2の他、最終的に
選定される第2の直線g2を含んだグループが作られる
(第1図(c)参照)。次に、第1図(b)のエツジ点
56か各候補直線の下に何個あるかをカウントしくステ
ップ572)、最もカウント数の大きいものを最終的な
第2の直線Ω2とする。このようにして、直線L  、
Laなどに惑わされることなく、本来の第2の直線Ω2
を選定できる。
The details of the process in step 561 are shown in FIG. First, a group of candidate straight lines for the second straight line Ω2 is created (step 571). This group can be created by grouping representative values within a predetermined range,
There are methods to interpolate the number of divisions during Hough transformation, but in any case, a group is created that includes the second straight line g2 that is finally selected in addition to the straight line L2 that is close to the theoretical value (see Figure 1). (see (c)). Next, the number of edge points 56 in FIG. 1(b) below each candidate straight line is counted (step 572), and the one with the largest count is determined as the final second straight line Ω2. In this way, the straight line L,
The original second straight line Ω2 without being confused by La etc.
can be selected.

以上の処理が終了したら、最後に走行路の形状判別を行
なう(第3図のステップ217)。
When the above processing is completed, the shape of the travel path is finally determined (step 217 in FIG. 3).

〔発明の効果〕〔Effect of the invention〕

以上、詳細に説明した通り本発明によれば、画像処理に
より得られた多数の直線の中から一方の走行路端に対応
するものを決定し、地平線および走行路(道路)幅との
対応関係から他方の走行路端に対応する直線を予測し、
その予測にもとづいて上記他方の走行路端に対応する直
線を抽出している。このため、一対の直線を効率よく見
出すことが可能になり、画像処理により得られた多数の
直線から、走行路端に対応する一対の直線を容易にかつ
高速に抽出することができる。
As described above in detail, according to the present invention, one of the many straight lines obtained by image processing that corresponds to one running road edge is determined, and the corresponding relationship with the horizon and the running road (road) width is determined. Predict the straight line corresponding to the other road edge from
Based on the prediction, a straight line corresponding to the other road edge is extracted. Therefore, it becomes possible to efficiently find a pair of straight lines, and it is possible to easily and quickly extract a pair of straight lines corresponding to the road edge from a large number of straight lines obtained by image processing.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は、本発明の基本概念の説明図、第2図は、実施
例を適用した装置における機能実現手段の概念図、第3
図は、全体的な処理を示すフロチャート、第4図は、カ
メラの取付位置の説明図、第5図は、走行路における車
両の状態と画像の関係の説明図、第6図は、Hough
変換の説明図、第7図は、フィルタリング処理の説明図
、第8図は、Hough変換とソーティング処理の結果
の説明図、第9図は、クラスタリング処理の説明図、第
10図は、クラスタリング処理の結果の具体例の説明図
、第11図は、直線の抽出および選定のフローチャート
、第12図は、直線確定操作のフローチャートである。 1・・・カメラ、2・・・A/D変換部、3・・・画像
メモリ、5・・・DDA演算部、6・・・近傍フィルタ
リング部、7・・・ピークソーティング部、8・・・ク
ラスタリング部、9・・・直線抽出/選定部、10・・
・判別部、11・・・モニタ制御部、12・・・モニタ
、13・・・コントローラ、14・・・初期設定部、g
l・・・第1の直線、ρ2・・・第2の直線。 特許出願人  本田技研工業株式会社 代理人弁理士   長谷用  芳  樹直羽i徊敢8J
σ振友 直雇U礒定株伴 第 ν 図
FIG. 1 is an explanatory diagram of the basic concept of the present invention, FIG. 2 is a conceptual diagram of a function realizing means in a device to which the embodiment is applied, and FIG.
The figure is a flowchart showing the overall process, Figure 4 is an explanatory diagram of the mounting position of the camera, Figure 5 is an explanatory diagram of the relationship between the vehicle condition on the road and the image, and Figure 6 is the Hough
FIG. 7 is an explanatory diagram of the filtering process. FIG. 8 is an explanatory diagram of the results of Hough transformation and sorting process. FIG. 9 is an explanatory diagram of the clustering process. FIG. 10 is an explanatory diagram of the clustering process. FIG. 11 is a flowchart for extracting and selecting a straight line, and FIG. 12 is a flowchart for determining a straight line. DESCRIPTION OF SYMBOLS 1... Camera, 2... A/D conversion part, 3... Image memory, 5... DDA calculation part, 6... Neighborhood filtering part, 7... Peak sorting part, 8...・Clustering section, 9...Line extraction/selection section, 10...
- Discrimination unit, 11... Monitor control unit, 12... Monitor, 13... Controller, 14... Initial setting unit, g
l...first straight line, ρ2...second straight line. Patent Applicant: Honda Motor Co., Ltd. Representative Patent Attorney Yoshi Hase Itsuki Naoha i Wandering 8J
σShinyou direct employmentUiso fixed stock number ν

Claims (1)

【特許請求の範囲】 1、走行路をカメラで撮像して得られた画像データから
その走行路の形状を判別する走行路判別方法において、 前記画像データに含まれる特徴点の並びに近似した直線
群を求める第1のステップと、 あらかじめ設定されたカメラ位置情報にもとづき前記画
像データ上で地平線位置を演算する第2のステップと、 前記画像データ上で一方の走行路端に対応して現われる
特徴点の並びに近似した第1の直線を前記直線群から抽
出する第3のステップと、 前記地平線位置と前記第1の直線の位置とあらかじめ設
定された走行路幅情報にもとづき、前記画像データ上で
の他方の走行路端に対応して現れる特徴点の並びに近似
した第2の直線を、前記地平線位置と前記第1の直線の
交点近傍を通りかつ前記第1の直線の位置と前記走行路
幅情報に対応した距離だけ離れた直線群の中から抽出す
る第4のステップとを備え、 前記第1および第2の直線にもとづいて走行路の形状を
判別することを特徴とする走行路判別方法。 2、前記第4のステップは、前記画像データ上の前記第
1の直線の位置と前記走行路幅情報に対応した距離だけ
等しく離れた左右の2つの直線群の中から前記第2の直
線を抽出することを特徴とする請求項1記載の走行路判
別方法。
[Scope of Claims] 1. A driving path discrimination method for determining the shape of a driving path from image data obtained by imaging the driving path with a camera, comprising: a group of straight lines approximated by the arrangement of feature points included in the image data; a first step of calculating the horizon position on the image data based on preset camera position information; and a second step of calculating a horizon position on the image data based on preset camera position information; and a feature point appearing on the image data corresponding to one of the road edges. a third step of extracting an approximated first straight line from the straight line group; A second straight line approximated by the arrangement of feature points appearing corresponding to the other running road edge passes through the vicinity of the intersection of the horizon position and the first straight line, and the position of the first straight line and the running road width information a fourth step of extracting from a group of straight lines separated by a distance corresponding to the distance, and determining the shape of the traveling route based on the first and second straight lines. 2. The fourth step is to select the second straight line from among two groups of left and right straight lines that are equally separated by a distance corresponding to the position of the first straight line on the image data and the traveling road width information. 2. The driving route determination method according to claim 1, further comprising the step of extracting.
JP63243330A 1988-09-28 1988-09-28 Running path discriminating method Pending JPH0290380A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP63243330A JPH0290380A (en) 1988-09-28 1988-09-28 Running path discriminating method
DE68925091T DE68925091T2 (en) 1988-09-28 1989-09-28 Method and device for estimating the route
EP89309876A EP0361914B1 (en) 1988-09-28 1989-09-28 A driving way judging device and method
US08/032,409 US5359666A (en) 1988-09-28 1993-03-15 Driving way judging device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63243330A JPH0290380A (en) 1988-09-28 1988-09-28 Running path discriminating method

Publications (1)

Publication Number Publication Date
JPH0290380A true JPH0290380A (en) 1990-03-29

Family

ID=17102220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63243330A Pending JPH0290380A (en) 1988-09-28 1988-09-28 Running path discriminating method

Country Status (1)

Country Link
JP (1) JPH0290380A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5245422A (en) * 1991-06-28 1993-09-14 Zexel Corporation System and method for automatically steering a vehicle within a lane in a road
JPH11108632A (en) * 1997-10-02 1999-04-23 Kansei Corp Road shape detecting device
US6493458B2 (en) 1996-08-28 2002-12-10 Matsushita Electric Industrial Co., Ltd. Local positioning apparatus, and method therefor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5245422A (en) * 1991-06-28 1993-09-14 Zexel Corporation System and method for automatically steering a vehicle within a lane in a road
US6493458B2 (en) 1996-08-28 2002-12-10 Matsushita Electric Industrial Co., Ltd. Local positioning apparatus, and method therefor
JPH11108632A (en) * 1997-10-02 1999-04-23 Kansei Corp Road shape detecting device

Similar Documents

Publication Publication Date Title
US5359666A (en) Driving way judging device and method
EP0361914B1 (en) A driving way judging device and method
US4545067A (en) Process for automatic image recognition
CN102479327B (en) Target identification system, and the obstacle identification system and method for automobile
JPH03194670A (en) Method for discriminating travel route
US20070223785A1 (en) Image processor and method
CN111814773A (en) Lineation parking space identification method and system
JPH10300494A (en) Vehicle position detecting device and method and route guide device and method
CN101369312A (en) Method and equipment for detecting intersection in image
US5293433A (en) Method and device for detecting patterns adapted automatically for the level of noise
JP2010503936A (en) Method and apparatus for image processing
JPH0290379A (en) Running path discriminating device
JPH0778234A (en) Course detector
JPH0290380A (en) Running path discriminating method
JP2605295B2 (en) Car type identification method
JPH0290381A (en) Running path discriminating method
CN113657277A (en) System and method for judging shielded state of vehicle
JPH0512442A (en) Line image tracking method
JP2883131B2 (en) Driving lane identification method
JPH0364909B2 (en)
JPH08210811A (en) Method and device for detecting circle or ellipse
JPH0933216A (en) Image processor carried on vehicle
JP3854143B2 (en) Lane boundary detection device
JPH01177682A (en) Graphic recognizing device
JPH06265330A (en) Image measuring apparatus