JPH0624035B2 - Driving path identification device - Google Patents

Driving path identification device

Info

Publication number
JPH0624035B2
JPH0624035B2 JP63243329A JP24332988A JPH0624035B2 JP H0624035 B2 JPH0624035 B2 JP H0624035B2 JP 63243329 A JP63243329 A JP 63243329A JP 24332988 A JP24332988 A JP 24332988A JP H0624035 B2 JPH0624035 B2 JP H0624035B2
Authority
JP
Japan
Prior art keywords
straight line
image
road
traveling road
discriminating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP63243329A
Other languages
Japanese (ja)
Other versions
JPH0290379A (en
Inventor
茂人 仲山
洋 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP63243329A priority Critical patent/JPH0624035B2/en
Priority to DE68925091T priority patent/DE68925091T2/en
Priority to EP89309876A priority patent/EP0361914B1/en
Publication of JPH0290379A publication Critical patent/JPH0290379A/en
Priority to US08/032,409 priority patent/US5359666A/en
Publication of JPH0624035B2 publication Critical patent/JPH0624035B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は画像処理によって走行路(例えば道路)の直
線、カーブ、登り、下りなどの形状を判別する走行路判
別装置に関するものである。
The present invention relates to a traveling road discriminating apparatus for discriminating the shape of a traveling road (for example, a road) such as a straight line, a curve, a climb, and a descent by image processing.

〔従来の技術〕[Conventional technology]

自動走行車両を制御するに当たっては、走行路の形状を
リアルタイムに認識する必要がある。この目的のために
は、例えば走行路にあらかじめ識別ラインを設けてお
き、これを光センサ等で検知することが考えられる。し
かし、これでは走行路に識別ラインを設けなければなら
ないので、汎用性に著しく欠ける。
In controlling an autonomous vehicle, it is necessary to recognize the shape of the traveling road in real time. For this purpose, for example, it is conceivable to provide an identification line in advance on the traveling road and detect this with an optical sensor or the like. However, in this case, since the identification line must be provided on the traveling path, the versatility is remarkably lacking.

そこで、走行路をテレビカメラなどで撮像し、得られた
データを画像処理することにより、走行路の形状を認識
することが考えられる。このような画像処理には各種の
手法があり、その一例として例えばHough(ハフ)
変換を用いたものがある(特開昭62−24310号、
同62−70916号)。しかし、走行路を撮像して得
られたデータには走行路に対応するデータが含まれるだ
けでなく、走行路周囲の建物や、樹木、あるいはセンタ
ーラインなどの各種のものが含まれるので、正しい走行
路の認識処理には長い時間を要することになる。また、
高速化を図ろうとすると、システムが複雑、高価になっ
てしまう欠点もある。
Therefore, it is conceivable to recognize the shape of the traveling path by imaging the traveling path with a television camera or the like and image-processing the obtained data. There are various methods for such image processing, and as an example, for example, Hough
There is one using conversion (Japanese Patent Laid-Open No. 62-24310,
62-70916). However, the data obtained by imaging the road is not only the data corresponding to the road, but also the buildings around the road, trees, and various things such as the center line. It takes a long time for the recognition processing of the traveling path. Also,
Attempting to increase the speed has the drawback that the system becomes complicated and expensive.

ところで、走行車両を制御するためには、走行路の大局
的形状を把握することがまず最初に必要であり、これが
把握できると微細な形状の把握も容易になる。
By the way, in order to control the traveling vehicle, it is first necessary to grasp the global shape of the traveling road, and if this can be grasped, it becomes easy to grasp the fine shape.

〔発明が解決しようとする課題〕[Problems to be Solved by the Invention]

本発明は上記のような問題点を解決し、高速に走行路の
大局的形状を把握できることを目的とした従来は無かっ
た装置を実現するためになされたものである。
The present invention has been made in order to solve the above-mentioned problems and to realize a device which has never existed in the prior art with the object of being able to grasp the global shape of a traveling path at high speed.

〔課題を解決するための手段〕[Means for Solving the Problems]

本発明に係る走行路判別装置において、その第1の態様
は、走行路をカメラで撮像して得られた画像データに含
まれる特徴点(撮像対象の各エッジを示す画像データ)
についてHough変換を施すことにより、撮像対象の
各エッジを画像上で近似する直線群を求め、これら各直
線群の中から走行路の両端を画像上で近似する直線の組
を抽出し、この2直線を走行路の形状判別に利用するこ
とを特徴としている。
In the traveling road discriminating apparatus according to the present invention, a first aspect thereof is a feature point included in image data obtained by imaging a traveling road with a camera (image data showing each edge of an imaging target).
Hough transform is performed to obtain a straight line group that approximates each edge of the imaged object on the image, and a set of straight lines that approximates both ends of the traveling path on the image is extracted from these straight line groups. The feature is that a straight line is used to determine the shape of the road.

さらに、第2の態様では、あらかじめ重複しないように
上記画像を分割した領域ごとに、各領域内に存在する直
線群の中から走行路の一部を画像上で近似する直線対を
順次抽出して行き、この直線対を走行路全体の形状判別
に利用することを特徴としている。
Further, in the second mode, for each area obtained by dividing the image so as not to overlap in advance, straight line pairs that approximate a part of the road on the image are sequentially extracted from the straight line group existing in each area. The feature is that this straight line pair is used for shape determination of the entire traveling path.

すなわち、本発明における第1の態様では、直線群抽出
手段により、画像データから撮像対象の各エッジを示す
画像上の特徴点を検出し、この画像上で各特徴点に対し
てHough変換を施すことにより、撮像対象の各エッ
ジを画像上で近似する直線群を求める。
That is, in the first aspect of the present invention, the straight line group extraction means detects the feature points on the image indicating each edge of the imaging target from the image data, and performs the Hough transform on each feature point on the image. Thus, a straight line group that approximates each edge of the imaging target on the image is obtained.

次に、直線選定手段により、直線群の中から走行路の一
端を画像上で近似する第1の直線の候補となる直線を任
意に選択しながら、この選択された直線の位置とあらか
じめ設定されたカメラ位置にもとづいて求められた画像
上の地平線位置情報及びあらかじめ設定された走行路幅
情報から算出される理論直線と選択された直線との組に
近似する直線群中の組を順次求め、さらに、これら得ら
れた直線の組のうち最も近似している直線の組を、走行
路の一端及び他端をそれぞれ画像上で近似する第1及び
第2の直線の組として選定する。
Next, the straight line selecting means arbitrarily selects a first straight line candidate that approximates one end of the road on the image from the straight line group, and presets the position of the selected straight line. Sequentially obtain a set of straight line groups that approximate the set of theoretical straight line and selected straight line calculated from the horizon position information on the image obtained based on the camera position and preset traveling road width information, Further, the most approximated straight line set among the obtained straight line sets is selected as the first and second straight line sets that approximate one end and the other end of the traveling path on the image, respectively.

ここで、上記理論直線は画像上で計算により算出される
直線であって、上記直線群抽出手段において求められた
直線群の中からクラスタリングされた各グループを代表
する代表直線を選定し、これら選定された代表直線と地
平線位置の交点近傍を通り、かつこの代表直線に対して
走行路幅情報に対応した距離だけ等しく左右に離れた2
つの直線である。
Here, the theoretical straight line is a straight line calculated by calculation on the image, and a representative straight line representing each clustered group is selected from the straight line groups obtained by the straight line group extraction means, and these are selected. It passes through the intersection of the representative straight line and the horizon position, and is separated from this representative straight line by the distance corresponding to the road width information.
Are two straight lines.

そして、最後に判別手段により抽出された第1および第
2の直線にもとづいて、走行路の形状を判別している。
Then, the shape of the traveling path is determined based on the first and second straight lines finally extracted by the determination means.

一方、本発明における第2の態様では、まず、画像分割
手段により走行路端の一部を画像上で近似する直線が存
在する領域であって、この近似直線を特定するためのエ
ッジ情報が最も良好に得られる下側領域と、走行路端の
一部を画像上で近似する直線が存在する領域であって、
下側領域に隣接しかつ下側領域に対し画像上前方側に位
置する上側領域とを含む少なくとも2つの領域に、画像
を分割する。そして、上記第1の態様における直線群抽
出手段と同様に、Hough変換を利用して撮像対象の
各エッジを画像上で近似する直線群の抽出を行ってい
る。
On the other hand, in the second aspect of the present invention, first, in a region where there is a straight line that approximates a part of the road edge on the image by the image dividing means, the edge information for specifying the approximate straight line is the most important. A lower area that is satisfactorily obtained and an area where there is a straight line that approximates a part of the road edge on the image,
The image is divided into at least two regions including an upper region adjacent to the lower region and located on the front side of the image with respect to the lower region. Then, similar to the straight line group extracting means in the first aspect, the Hough transform is used to extract a straight line group that approximates each edge of the imaging target on the image.

続いて、下側直線選定手段(上記第1の態様における直
線選定手段と同様の動作を行う)により下側領域におけ
る一部走行路端をそれぞれ画像上で近似する第1の直線
対を選定するとともに、上側直線選定手段により画像上
の上側領域内に存在する直線群のうち一部走行路端を画
像上で近似する第2の直線対として、下側領域および上
側領域の画像上の境界線と第1の直線対の交点近傍を通
る直線群から選定している。
Then, the lower straight line selecting means (performs the same operation as the straight line selecting means in the first aspect) selects a first straight line pair that approximates a part of the road edge in the lower area on the image. At the same time, as a second straight line pair that approximates a part of the road edge in the group of straight lines existing in the upper region on the image by the upper straight line selecting means, the boundary line on the image between the lower region and the upper region is set. Is selected from a group of straight lines passing near the intersection of the first straight line pair.

そして、最後に判別手段において、下側領域における第
1の直線対が交叉する交点(各直線の延長線上に存在す
る場合もある)と上側領域における第2の直線対が交叉
する交点(各直線の延長線上に存在する場合もある)と
の相対位置関係から走行路の形状を判別する。
Finally, in the discriminating means, the intersection point where the first straight line pair in the lower area intersects (may exist on the extension line of each straight line) and the intersection point where the second straight line pair in the upper area intersects (each straight line). It may exist on the extension line of), and the shape of the road is determined from the relative positional relationship with.

なお、第2の態様においては、判別手段は上側直線交点
が下側直線交点の右に位置するときは走行路は右曲りと
判別し、左に位置するときは左曲りと判別することを特
徴としてもよく、また上側直線交点が下側直線交点の下
方に位置するときは素行路は下り坂であると判別するこ
とを特徴としてもよい。
In the second aspect, the discriminating means discriminates that the traveling path is a right turn when the upper straight line intersection is located to the right of the lower straight line intersection, and it is a left turn when the upper straight line intersection is located to the left. Alternatively, when the upper straight line intersection is located below the lower straight line intersection, it may be determined that the bare road is a downhill.

〔作用〕[Action]

本発明によれば、あらかじめ設定された走行路(道路)
幅情報を用いて走行路端に対応する直線が抽出される。
すなわち、一方の走行路端に対応する第1の直線は、単
に最も主要な線分特徴として求められるが、他方の走行
路端に対応する第2の直線は上記の道路幅情報にもとづ
き、第1の直線との相対関係で決定される。従って、走
行路の形状の大局的傾向を知る上で最も基本的かつ重要
な2本の直線を、簡単な処理によって迅速に見出すこと
ができる。
According to the present invention, a preset traveling path (road)
A straight line corresponding to the road edge is extracted using the width information.
That is, the first straight line corresponding to one traveling road edge is simply obtained as the most main line segment feature, while the second straight line corresponding to the other traveling road end is based on the above road width information. It is determined by the relative relationship with the straight line of 1. Therefore, the two most basic and important straight lines for knowing the global tendency of the shape of the road can be found quickly by a simple process.

また、第2の態様のように原画像を実景の手前側に相当
する下側領域と、遠方側に相当する上側領域に分割し、
各領域ごとに直線を求めるようにした場合、手前側が写
っている下側領域では、ほぼ走行路のみの画像データと
なり、周囲の建物などの影響を受けにくい。さらに、各
領域ごとに求めに直線の交点(画像上に現れる近似直線
の延長線上に存在する)の相対的位置関係を調べること
により、走行路の曲り、登り、下り等の形状を簡単に判
別することができる。
Further, as in the second aspect, the original image is divided into a lower region corresponding to the front side of the real scene and an upper region corresponding to the far side,
When a straight line is obtained for each area, image data of only the road is almost obtained in the lower area where the near side is shown, and it is less likely to be affected by surrounding buildings. In addition, by checking the relative positional relationship of straight line intersections (which exist on the extension line of the approximate straight line appearing in the image) for each area, it is possible to easily determine the shape of the bend, climb, descent, etc. of the road. can do.

〔実施例〕〔Example〕

以下、添付図面を参照して本発明の実施例を詳細に説明
する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

第1図は本発明の実施例を機能実現手段の結合として表
現した概念図である。図示の通り、カメラ1で取り込ま
れた走行路の画像データはA/D変換部2でディジタル
データに変換され、画像メモリ3に一時的に格納され
る。画像メモリ3から読み出された画像データは前処理
部4に与えられ、ここで微分によるエッジ検出、ルック
アップテーブル(LUT)による閾値処理、領域設定、
座標変換などが行なわれる。DDA演算部5はいわゆる
ディジタル微分解析(Digital Differential Analysis)
を行なうもので、Hough変換がパイプライン方式で
なされる。そして、このHough変換によって画像の
特徴に対応する直線群が得られる。
FIG. 1 is a conceptual diagram showing an embodiment of the present invention as a combination of function realizing means. As shown in the figure, the image data of the traveling road captured by the camera 1 is converted into digital data by the A / D converter 2 and temporarily stored in the image memory 3. The image data read from the image memory 3 is given to the pre-processing unit 4, where edge detection by differentiation, threshold processing by a lookup table (LUT), area setting,
Coordinate conversion is performed. The DDA operation unit 5 is a so-called digital differential analysis.
And Hough conversion is performed in a pipeline manner. Then, by this Hough transform, a group of straight lines corresponding to the features of the image is obtained.

Hough変換により得られた直線群に関するデータは
近傍フィルタリング部6に与えられ、ここで例えば8近
傍フィルタリング処理が施された後に、ピークソーティ
ング部7に与えられ、さらにクラスタリング部8におけ
るクラスタリング処理によって代表値が選ばれ、これが
直線抽出/選定部9に送られる。抽出および選定された
直線に関するデータは判別部10に送られ、ここで走行
路の形状が判別される。判別出力は外部の装置(図示せ
ず)に送られると共に、モニタ制御部11にも送られ、
走行路の画像と共にモニタ12で表示される。なお、上
記の機能実現手段の動作はコントローラ13で制御され
る。また、初期設定部14は走行路幅のデータなどを初
期設定するために用いられる。
The data on the straight line group obtained by the Hough transform is given to the neighborhood filtering unit 6, where it is given to the peak sorting unit 7 after being subjected to, for example, 8 neighborhood filtering processing, and is further represented by the clustering processing in the clustering unit 8. Is selected and sent to the straight line extraction / selection unit 9. The data regarding the extracted and selected straight line is sent to the determination unit 10, where the shape of the traveling path is determined. The determination output is sent to an external device (not shown) and also to the monitor controller 11.
It is displayed on the monitor 12 together with the image of the traveling path. It should be noted that the operation of the above-mentioned function realizing means is controlled by the controller 13. Further, the initial setting section 14 is used for initializing data such as the road width.

次に、上記実施例の装置の作用を、特に第2の態様につ
いて順次に説明する。なお、第1の態様において、直線
群抽出手段、及び判別手段は後述する直線群抽出手段、
及び判別手段と同様の動作を行っており、また、第1の
態様における直線選定手段は、後述する下側直線選定手
段と同様の動作を行っている。
Next, the operation of the apparatus of the above-described embodiment will be sequentially described, particularly regarding the second aspect. In the first aspect, the straight line group extraction means and the determination means are the straight line group extraction means described later,
Also, the same operation as the determining means is performed, and the straight line selecting means in the first aspect performs the same operation as the lower straight line selecting means described later.

第2図は処理の流れを全体的に示すフローチャートであ
る。まず、処理の開始に際しては初期設定が行なわれる
(ステップ201)。この初期設定には走行路幅WRの
設定の他、カメラ1の俯角θ、カメラ1のレンズ焦点
距離f、カメラ1の取付高さHが含まれる。これを第
3図および第4図により説明する。
FIG. 2 is a flowchart showing the overall processing flow. First, when the process is started, initialization is performed (step 201). This initial setting includes the setting of the travel path width WR, the depression angle θ 0 of the camera 1, the lens focal length f of the camera 1, and the mounting height H C of the camera 1. This will be described with reference to FIGS. 3 and 4.

第3図(a)に示すように、走行路31上に走行車両3
2が存在しているとし、走行車両32にはカメラ1が固
設されているとする。すると、カメラ1の俯角θおよ
び取付高さHは構造上あらかじめ既知の値として設定
できる。また、レンズ焦点距離fについてもカメラ1の
構造から既知の値として設定できる。なお、第3図
(b)は同図(a)の光学系の位置関係を拡大して示し
たものである。一方、走行路幅WRについては第4図に
示すものが設定される。上記のデータが設定されると、
第4図に示すような画像不端部での走行路画像幅wrを
求めることができる。すなわち、画像上の走行路幅wr
は wr=(WR′・f) /{(Llow +H・tanθ)cosθ} …(1) となる。ここで、画像下端部ylowに写る距離L
lowは第3図(b)において Llow =H/tan(θ +tan−1(ylow/f)) …(2) として求まり、カメラの向きと道の向きが傾いた場合を
考慮した道幅WR′は、第4図(b)おいて傾き角か
ら WR′=WR/sin …(3) として求まる。
As shown in FIG. 3A, the traveling vehicle 3 is placed on the traveling road 31.
2 is present, the camera 1 is fixedly mounted on the traveling vehicle 32. Then, the depression angle θ 0 and the mounting height H C of the camera 1 can be set in advance as known values structurally. Also, the lens focal length f can be set as a known value from the structure of the camera 1. Note that FIG. 3B is an enlarged view of the positional relationship of the optical system of FIG. On the other hand, the traveling road width WR is set as shown in FIG. Once the above data is set,
The traveling road image width wr at the image end portion as shown in FIG. 4 can be obtained. That is, the road width wr on the image
Is wr = (WR ′ · f) / {(L low + H c · tan θ o ) cos θ o } (1) Here, the distance L appearing at the lower end y low of the image
Low is obtained as L low = H C / tan (θ 0 + tan −1 (y low / f)) (2) in FIG. 3 (b), and considers the case where the direction of the camera and the direction of the road are inclined. The road width WR 'is obtained from the inclination angle in FIG. 4 (b) as WR' = WR / sin (3).

次に、第2図のステップ202として、画像上での地平
線の算出がなされる。この地平線位置Hは第3図
(b)において、 H=f・tanθ …(4) として算出される。そして、画像分割手段により第2図
のステップ204として第1領域A1(下側領域)と第
2領域A2(上側領域)の設定が行なわれる。すなわ
ち、第5図に示すように走行路31の手前側を第1領域
A1とし、遠方側を第2領域A2とする。そして、第1
領域A1と第2領域A2の比は3:2程度とし、かつ第
2領域A2の上端部が地平線位置Hにほぼ一致するよ
うにしておく。
Next, as step 202 in FIG. 2, the horizon on the image is calculated. This horizon position H 0 is calculated as H o = f · tan θ o (4) in FIG. 3 (b). Then, the image dividing means sets the first area A1 (lower area) and the second area A2 (upper area) as step 204 in FIG. That is, as shown in FIG. 5, the front side of the traveling road 31 is the first area A1 and the far side is the second area A2. And the first
The ratio of the area A1 and the second area A2 3: 2 about the to and upper end portion of the second region A2 is kept so as to substantially match the horizon position H o.

以上のような前段階の処理が終了したら、画像データを
入力し、走行路を判別する処理を繰り返して実行する。
すなわち、まず直線群抽出手段により第2図のステップ
205において画像データをディジタルデータとして第
1図の画像メモリ3から入力し、前処理部4で所定の前
処理を行なう。ここでは、例えばSobelなどのエッ
ジ検出を行ない、このエッジ化データについて第1図の
DDA演算部5でHough変換を行なう。このHou
gh変換は直列接続された複数のDDA演算回路(図示
せず)を用いてパイプライン方式で行なうことができる
が、その処理の概要は例えば、米国特許第306965
4号や本出願人による特願昭63−112243号に示
されている。すなわち、エッジ画像におけるエッジ点を
通る直線を考え、その直線に対して所定の原点から垂線
を引く。そして、この垂線の長さをρ、この垂線と画像
上の座標の横軸とのなす角をθとして上記θの値を変え
ていくと、そのエッジ点(撮像対象の各エッジを示す画
像上の特徴点)を通る直線群が、Hough曲線と呼ば
れるサインカーブに変換され、ρ、θ平面上に描かれて
いく。このHough曲線は各エッジ点ごとに異なり、
画像上で同一直線上に並ぶようなエッジ点については、
ρ、θ平面でひとつの交点を有しているので、このρ、
θ平面上でのHough曲線の重なり具合いを調べるこ
とで、エッジ点の並びに近似した直線lをρ、θの値で
求めることができる。
When the above-described processing in the previous stage is completed, the image data is input, and the processing for determining the traveling path is repeatedly executed.
That is, first, the image data is inputted as digital data from the image memory 3 of FIG. 1 by the straight line group extraction means in step 205 of FIG. Here, for example, edge detection such as Sobel is performed, and the DDA operation unit 5 of FIG. 1 performs Hough conversion on this edged data. This Hou
The gh conversion can be performed by a pipeline method using a plurality of DDA arithmetic circuits (not shown) connected in series. The outline of the processing is described in, for example, US Pat. No. 3,096,965.
No. 4 and Japanese Patent Application No. 63-112243 by the present applicant. That is, a straight line passing through the edge point in the edge image is considered, and a perpendicular line is drawn from the predetermined origin for the straight line. Assuming that the length of this perpendicular line is ρ and the angle between this perpendicular line and the horizontal axis of the coordinates on the image is θ, and the value of θ is changed, the edge point (on the image showing each edge of the imaging target A straight line group passing through (characteristic points of 1) is converted into a sine curve called a Hough curve and drawn on the ρ and θ planes. This Hough curve is different for each edge point,
For edge points that line up on the same line on the image,
Since there is one intersection in the ρ and θ planes, this ρ,
By investigating the degree of overlap of the Hough curves on the θ plane, the straight line 1 approximated to the edge points can be obtained by the values of ρ and θ.

これを、第6図により簡単にに説明する。This will be briefly described with reference to FIG.

いま、x−y平面(画像平面)上のエッジが、第6図
(a)に示すようにEP,EP,EPの3点であ
ったとする。すると、各エッジEP〜EPのそれぞ
れにつき1本づつのHough曲線(サインカーブ)が
ρ−θ平面で描かれ、しかもエッジEPとEPによ
る2本のHough曲線は(ρ,θ)で交点をも
ち、エッジEPとEPによる2本のHough曲線
は(ρ,θ)で交点をもつ。そこで、第6図(b)
のようにEP〜EP14の15個のエッジが並んでい
たとすると、各エッジについて各1本づつのHough
曲線がρ−θ平面で描かれることになる。そして、エッ
ジEP〜EPの9本のHough曲線については
(ρ,θ)で交叉し、エッジEP〜EP10の3
本のHough曲線については(ρ,θ)で交叉
し、エッジEP10〜EP14の5本のHough曲線
については(ρ,θ)で交叉する。
Now, assume that the edges on the xy plane (image plane) are three points EP 0 , EP 1 and EP 2 as shown in FIG. 6 (a). Then, one Hough curve (sine curve) is drawn on each of the edges EP 0 to EP 2 on the ρ-θ plane, and the two Hough curves by the edges EP 0 and EP 1 are (ρ 1 , θ). 1 ) has an intersection point, and two Hough curves formed by the edges EP 0 and EP 2 have an intersection point at (ρ 2 , θ 2 ). Therefore, FIG. 6 (b)
15 edges of EP 0 to EP 14 are lined up like this, one Hough is provided for each edge.
The curve will be drawn in the ρ-θ plane. Then, the nine Hough curves edges EP 0 ~EP 8 is cross with (ρ c, θ c), 3 edges EP 8 ~EP 10
The Hough curve of the book intersects at (ρ b , θ b ), and the Hough curves of the five edges EP 10 to EP 14 intersect at (ρ a , θ a ).

上記の説明から明らかなように、Hough曲線の交点
の頻度が高い点(ρ,θ)から撮像対象の各エッジを画
像上で近似する直線を求められ、画像におけるデータの
特徴的な並びを認識することができることになる(走行
路端を画像上で近似する直線として選定される近似直線
の候補となる直線群が抽出できる)。
As is clear from the above description, a straight line that approximates each edge of the imaging target on the image is obtained from the point (ρ, θ) at which the intersection of the Hough curves is high, and the characteristic arrangement of the data in the image is recognized. (It is possible to extract a straight line group that is a candidate for an approximate straight line that is selected as a straight line that approximates the road edge on the image).

次に、第2図のステップ210に対応するフィルタリン
グ処理を第7図により説明する。
Next, the filtering process corresponding to step 210 in FIG. 2 will be described with reference to FIG.

第7図はρ,θ座標におけるカウント値(各エッジ点に
より生じたHough曲線の重なり具合い)を示してい
る。ここで8近傍のフィルタリング処理は、ある
(ρ,θ)におけるカウント値Ci,jについて、
その近傍の8つのカウント値と比較することで行なう。
すなわち、(ρi−1,θj−1)〜(ρi+1,θ
j+1)のカウント値をCi−1,j−1〜C
i+1,j+1としたときに、Ci,jがいずれのカウ
ント値よりも大であるときに、これをピークとして抽出
する。従って、例えば第7図の符号F1で示す範囲では
(ρ,θ)=7はピークとして抽出されるが、符号
F2で示す(ρ,θ)=6はピークとして抽出され
ない。
FIG. 7 shows the count values at the ρ and θ coordinates (the degree of overlap of the Hough curves caused by each edge point). Here, the filtering processing of 8 neighborhoods is performed with respect to the count value C i, j at a certain (ρ i , θ j ).
It is performed by comparing with eight count values in the vicinity.
That is, (ρ i-1 , θ j-1 ) to (ρ i + 1 , θ
j + 1 ) the count value of C i−1, j−1 to C
When i + 1, j + 1 is set, when C i, j is larger than any count value, this is extracted as a peak. Therefore, for example, in the range indicated by the symbol F1 in FIG. 7, (ρ 3 , θ 3 ) = 7 is extracted as a peak, but (ρ 4 , θ 4 ) = 6 indicated by the symbol F2 is not extracted as a peak.

フィルタリング処理の次には、ソーティング処理がなさ
れる。これは、上記のカウント値Cの大きい順にデータ
を並べかえるもので、ソフトウェアにより実現してもよ
く、専用のハードウェアにより実現してもよい。
After the filtering process, a sorting process is performed. This is to rearrange the data in descending order of the count value C, and may be implemented by software or dedicated hardware.

以上のソーティング処理が終了したら、次にクラスタリ
ング処理による代表値の選定がなされる(第2図のステ
ップ213)。これを第8図ないし第10図により説明
する。
When the above sorting process is completed, a representative value is next selected by the clustering process (step 213 in FIG. 2). This will be described with reference to FIGS. 8 to 10.

第8図はソーティングされたデータを示している。ここ
で、カウント値C,C,C,…,Cn−1につい
ては、ソーティング処理によってC>C>C>…
>Cn−1となっている。クラスタリング処理にあたっ
ては、第9図のフローチャートの如くまずk=0,i=
1に設定し(ステップ501)、ステップ502〜51
5の処理が繰り返される。そこで、上記i,kを用いて
この処理を一般的に説明すると、次のようになる。まず
ステップ502において、i>kとなっているi番目の
直線がすでに他の直線の仲間になっているか否かが調べ
られ、仲間となっていないときに ρ−Δρ≦ρ≦ρ+Δρ θ−Δθ≦θ≦θ+Δθ が調べられる(ステップ504)。そして、上記の関係
が成立するときのみi番目の直線はk番目の直線の仲間
とされる(ステップ505)。次に、iに1が加算され
(ステップ507)、データが有りのときのみ(ステッ
プ508)i番目のカウント値Cが最大のものに比べ
て小さすぎないか調べられる(ステップ510)。これ
は、カウント値があまり小さいものは処理の必要性が乏
しいからである。
FIG. 8 shows the sorted data. Here, with respect to the count values C 0 , C 1 , C 2 , ..., C n-1 , by the sorting process, C 0 > C 1 > C 2 > ...
> C n-1 . In the clustering process, first, k = 0, i =
1 (step 501) and steps 502 to 51
The process of 5 is repeated. Therefore, a general description of this processing using the above i and k is as follows. First, in step 502, it is checked whether or not the i-th straight line with i> k is already a member of another straight line, and when it is not a member, ρ k −Δρ ≦ ρ i ≦ ρ k + Δρ θ k −Δθ ≦ θ i ≦ θ k + Δθ is examined (step 504). Then, only when the above relationship is established, the i-th straight line is made a member of the k-th straight line (step 505). Next, 1 is added to i (step 507), and only when there is data (step 508), it is checked whether the i-th count value C i is too small as compared with the maximum value (step 510). This is because if the count value is too small, there is little need for processing.

小さすぎないときは再びステップ502の処理に戻る
が、小さすぎるときはkに1が加算され(ステップ51
1)、別のクラスタリングがステップ513から始めら
れる。すなわち、k番目の直線がすでに他の直線の仲間
になっているか否かが調べられ(ステップ513)、仲
間となっているときにはステップ511でkに1が加算
されて再びステップ513が実行される。仲間となって
いないときは、k番目の次のi(=k+1)番目につい
て(ステップ515)、再びステップ502が実行され
る。
If it is not too small, the process returns to step 502 again, but if it is too small, 1 is added to k (step 51).
1), another clustering starts at step 513. That is, it is checked whether or not the k-th straight line is already a companion to another straight line (step 513), and when it is a companion, 1 is added to k in step 511 and step 513 is executed again. . When not being a friend, step 502 is executed again for the i-th (= k + 1) -th next to the k-th (step 515).

上記の処理によってクラスタリングを行なった具体例を
第10図に示す。同図において、第1の代表直線はρ=
200〔dots〕、θ=45〔deg〕であり、第2
の代表直線はρ=240〔dots〕、θ=123〔d
eg〕であることがわかる。
FIG. 10 shows a specific example in which clustering is performed by the above processing. In the figure, the first representative straight line is ρ =
200 [dots], θ = 45 [deg], and the second
Representative straight line of ρ = 240 [dots], θ = 123 [d
Eg].

上記の処理の後には、下側直線選定手段により第2図に
ステップ214で示す第1領域A1の直線抽出/選定が
なされる。第11図ないし第13図はそのフローチャー
トである。第1領域A1における直線の抽出は、第11
図のフローチャートに示すように、まず第N(=1)番
目の代表値の直線が第1の直線lとして取り出され、
この直線がカメラ1に対して右側か左側かが調べられる
(ステップ522)。右側のときは第2の直線lは左
側にあるはずなのでその理論値が求められ(ステップ5
54)、左側のときは第2の直線lは右側にあるはず
のなのでその理論値が求められる(ステップ555)。
そして、上記第1の直線lに対応する代表値以外の代
表値に理論値と近いものがあるまで(ステップ55
7)、上記の操作が繰り返される(ステップ558)。
After the above processing, the lower straight line selecting means performs straight line extraction / selection of the first area A1 shown in step 214 in FIG. 11 to 13 are flowcharts thereof. The extraction of the straight line in the first area A1 is the eleventh step.
As shown in the flowchart of the figure, first, the straight line of the Nth (= 1) th representative value is extracted as the first straight line l 1 ,
Whether this straight line is on the right side or the left side of the camera 1 is checked (step 522). On the right side, the second straight line l 2 should be on the left side, so its theoretical value is obtained (step 5).
54), since the second straight line l 2 should be on the right side when it is on the left side, its theoretical value is obtained (step 555).
Then, until there is a representative value other than the representative value corresponding to the first straight line l 1 close to the theoretical value (step 55).
7) The above operation is repeated (step 558).

ここで、第1の直線lが第14図のようになっている
とすると、理論値は画像上の走行路幅wfと地平線位置
の関係から求められるが、この理論値に対応する代
表値の直線がステップ560の処理結果として第14図
中のLであったとする。このときには、これを第2の
直線lの候補直線として直線確定操作を行なう(ステ
ップ561)。
Here, the first straight line l 1 is the are as shown in FIG. 14, although the theoretical value is determined from the relation between the travel path width wf and horizon line position H o on the image, corresponding to the theoretical value It is assumed that the straight line of the representative value is L 2 in FIG. 14 as the processing result of step 560. At this time, a straight line confirming operation is performed by using this as a candidate straight line for the second straight line l 2 (step 561).

ステップ561の処理の詳細は、第12図のようになっ
ている。まず、第2の直線lの候補直線のグループを
作る(ステップ571)。このグループの作り方として
は、代表値のうち所定範囲内のものをまとめる方式や、
Hough変換の際の分割数を補間する方式などがある
が、いずれにせよ理論値に近い直線Lの他、最終的に
選定される第2の直線lを含んだグループが作られる
(第14図参照)。次に、第14図のエッジ点(画像上
の時徴点)EPが各候補直線の下に何個あるかをカウン
トし(ステップ572)、最もカウント数の大きいもの
を最終的な第2の直線lとする。このようにして、直
線L,L′などに惑わされることなく、本来の第2
の直線lを選定できる。
Details of the processing in step 561 are as shown in FIG. First, a group of candidate straight lines of the second straight line l 2 is created (step 571). As a method of creating this group, a method of collecting the representative values within a predetermined range,
There is a method of interpolating the number of divisions at the time of Hough transform, etc., but in any case, in addition to the straight line L 2 close to the theoretical value, a group including the finally selected second straight line l 2 is formed (first (See Figure 14). Next, the number of edge points (temporal points on the image) EP in FIG. 14 under each candidate straight line is counted (step 572), and the one having the largest count is determined as the final second. Let straight line l 2 . In this way, the original second line is prevented without being confused by the straight lines L 2 , L 2 ′, etc.
The straight line l 2 can be selected.

上記のような第1領域A1の処理が終了したら、上側直
線選定手段により第13図のような第2領域A2の処理
を行なう。
When the processing of the first area A1 as described above is completed, the upper straight line selecting means performs the processing of the second area A2 as shown in FIG.

まず、ステップ581で第1領域A1の第1の直線
、第2の直線lと第1領域A1上端部との交点
P,Qを第14図のように求める。次に、点Pの近傍を
通る直線を第3の直線lの候補とする(ステップ58
2)。そして、この直線に対して第12図のような直線
確定操作を行なうと(584)、近くの直線(例えば第
14図のL)に惑わされることなく本来の第3の直線
を抽出できる。しかる後、第4の直線lの抽出
(ステップ585)を行なう訳であるが、この抽出は第
11図のステップ551〜560と同様に行なわれる。
最後に、第12図のような直線確定操作を行なえば、第
14図のLなどに惑わされることなく、第4の直線l
が抽出できる。
First, at step 581, intersections P and Q of the first straight line l 1 and the second straight line l 2 of the first area A1 and the upper end of the first area A1 are obtained as shown in FIG. Next, a straight line passing near the point P is set as a candidate for the third straight line l 3 (step 58).
2). Then, when a straight line confirming operation as shown in FIG. 12 is performed on this straight line (584), the original third straight line l 3 is extracted without being confused by a nearby straight line (for example, L 3 in FIG. 14). it can. After that, the fourth straight line l 4 is extracted (step 585), and this extraction is performed in the same manner as steps 551 to 560 in FIG.
Finally, if the straight line confirming operation as shown in FIG. 12 is performed, the fourth straight line l can be obtained without being confused by L 4 and the like in FIG.
4 can be extracted.

以上の処理が終了したら、最後に走行路の形状判別を行
なう(第2図のステップ217)。
After the above processing is completed, the shape of the road is finally determined (step 217 in FIG. 2).

この判別は、第15図に示すように、第1の直線l
よび第2の直線lの交点Rと、第3の直線lおよ
び第4の直線lの交点Rの相対的位置関係により行
なう。すなわち、第15図(a)のように走行路が直線
かつ平坦であるときには、交点R,Rの座標はほぼ
一致する。これに対し、同図(b)のように走行路が右
にカーブしているときには交点Rは交点Rの右側に
現れることになり、左にカーブしているときには交点R
は交点Rの左側に現れる。また、同図(c)のよう
に前方で登り坂になっているときは交点Rは交点R
の上側に現れ、同図(d)のように前方で下り坂になっ
ているときは交点Rは交点Rの下側に現れる。従っ
て、交点R,Rの座標値を求めてこれを比較すれ
ば、走行路の形状が判別できることになる。
This determination is, as shown in Figure 15, the intersection R 1 of the first straight line l 1 and a second straight line l 2, the third straight line l 3 and a fourth relative intersection R 2 straight lines l 4 It is performed according to the physical relationship. That is, when the traveling road is straight and flat as shown in FIG. 15 (a), the coordinates of the intersection points R 1 and R 2 are substantially the same. On the other hand, the intersection R 2 appears on the right side of the intersection R 1 when the road is curved to the right as shown in FIG.
2 appears to the left of intersection R 1 . Further, as shown in FIG. 7C, when the vehicle is climbing forward, the intersection point R 2 is the intersection point R 1
And the intersection R 2 appears below the intersection R 1 when the vehicle is downhill ahead as shown in FIG. Therefore, by obtaining the coordinate values of the intersections R 1 and R 2 and comparing them, the shape of the traveling path can be determined.

〔発明の効果〕〔The invention's effect〕

以上、詳細に説明した通り本発明によれば、あらかじめ
設定された走行路幅情報を用いて走行路端に対応する直
線が抽出される。すなわち、一方の走行路の端に対応す
る第1の直線は単に最も主要な線分特徴として求められ
るが、他方の走行路端に対応する第2の直線は上記の道
路幅情報にもとづき、第1の直線との相対関係で抽出さ
れる。従って、走行路の大局的傾向を知る上で最も基本
的かつ重要な2本の直線を、簡単な処理によって迅速に
見出すことができる。そして、原画像を2つの領域に区
分してこの領域ごとの各2本の直線の交点の相対的位置
関係を調べることで、走行路の形状を判別することが可
能になる。
As described above in detail, according to the present invention, the straight line corresponding to the road edge is extracted using the preset road width information. That is, the first straight line corresponding to the end of one traveling road is simply obtained as the most main line segment feature, while the second straight line corresponding to the other traveling road end is based on the above road width information. It is extracted in relation to the straight line of 1. Therefore, it is possible to quickly find the two most basic and important straight lines for knowing the global tendency of the traveling road by a simple process. Then, by dividing the original image into two regions and examining the relative positional relationship between the intersections of the two straight lines in each region, it is possible to determine the shape of the road.

【図面の簡単な説明】[Brief description of drawings]

第1図は、本発明の実施例における機能実現手段の概念
図、第2図は、全体的な処理を示すフローチャート、第
3図は、カメラの取付位置の説明図、第4図は、走行路
における車両の状態と画像の関係の説明図、第5図は、
第1領域A1および第2領域A2の設定の説明図、第6
図は、 Hough変換の説明図、第7図は、フィルタリング処
理の説明図、第8図は、Hough変換とソーティング
処理の結果の説明図、第9図は、クラスタリング処理の
説明図、第10図は、クラスタリング処理の結果の具体
例の説明図、第11図は、第1領域A1における直線の
抽出および選定のフローチャート、第12図は、直線確
定操作のフローチャート、第13図は、第2領域A2に
おける直線の抽出および選定のフローチャート、第14
図は、直線l〜lの抽出および選定を画像上で説明
する図、第15図は、走行路の形状判別の説明図であ
る。 1……カメラ、2……A/D変換部、3……画像メモ
リ、5……DDA演算部、6……近傍フィルタリング
部、7……ピークソーティング部、8……クラスタリン
グ部、9……直線抽出/選定部、10……判別部、11
……モニタ制御部、12……モニタ、13……コントロ
ーラ、14……初期設定部、l……第1の直線(第1
の下側直線)、l……第2の直線(第2の下側直
線)、l……第3の直線(第1の上側直線)、l
…第4の直線(第2の上側直線)、A1……第1領域、
A2……第2領域。
FIG. 1 is a conceptual diagram of a function realizing means in an embodiment of the present invention, FIG. 2 is a flowchart showing an overall process, FIG. 3 is an explanatory diagram of a mounting position of a camera, and FIG. An explanatory diagram of the relationship between the state of the vehicle and the image on the road, Fig. 5,
Explanatory drawing of setting of 1st area | region A1 and 2nd area | region A2, 6th
FIG. 7 is an explanatory diagram of Hough transform, FIG. 7 is an explanatory diagram of filtering process, FIG. 8 is an explanatory diagram of results of Hough transform and sorting process, FIG. 9 is an explanatory diagram of clustering process, and FIG. Is an explanatory diagram of a specific example of the result of the clustering process, FIG. 11 is a flowchart for extracting and selecting a straight line in the first area A1, FIG. 12 is a flowchart for determining a straight line, and FIG. 13 is a second area. Flow chart for extraction and selection of straight line in A2, 14th
FIG. 15 is a diagram for explaining the extraction and selection of the straight lines l 1 to l 4 on the image, and FIG. 15 is a diagram for explaining the shape determination of the road. 1 ... Camera, 2 ... A / D conversion unit, 3 ... Image memory, 5 ... DDA calculation unit, 6 ... Neighborhood filtering unit, 7 ... Peak sorting unit, 8 ... Clustering unit, 9 ... Straight line extraction / selection unit, 10 ... discrimination unit, 11
...... Monitor control unit, 12 ...... Monitor, 13 ...... Controller, 14 ...... Initial setting unit, l 1 ...... First straight line (first
Lower straight line), l 2 ... second straight line (second lower straight line), l 3 ... third straight line (first upper straight line), l 4 ...
... fourth straight line (second upper straight line), A1 ... first area,
A2: Second area.

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】走行路をカメラで撮像して得られた画像デ
ータからその走行路形状を判別する走行路判別装置にお
いて、 前記画像データから撮像対象の各エッジを示す画像上の
特徴点を検出し、該画像上で各特徴点に対してHoug
h変換を施すことにより、該撮像対象の各エッジを画像
上で近似する直線群を求める直線群抽出手段と、 前記直線群の中から前記走行路の一端を画像上で近似す
る第1の直線の候補となる直線を任意に選択しながら、
該選択された直線の位置とあらかじめ設定されたカメラ
位置にもとづいて求められた画像上の地平線位置情報及
びあらかじめ設定された走行路幅情報から算出される理
論直線と該選択された直線との組に近似する前記直線群
中の組を順次求め、 該得られた直線の組のうち最も近似している直線の組
を、前記走行路の一端及び他端をそれぞれ画像上で近似
する第1及び第2の直線の組として選定する直線選定手
段と、 前記抽出された第1および第2の直線にもとづいて、走
行路の形状を判別する判別手段と を備えることを特徴とする走行路判別装置。
1. A traveling road discriminating apparatus for discriminating a traveling road shape from image data obtained by capturing an image of a traveling road with a camera, wherein feature points on an image showing each edge of an imaging target are detected from the image data. Then, for each feature point on the image, Houg
A straight line group extracting unit that obtains a straight line group that approximates each edge of the imaging target on the image by performing h conversion, and a first straight line that approximates one end of the traveling path from the straight line group on the image. While arbitrarily selecting a straight line that is a candidate for
A set of the selected straight line and a theoretical straight line calculated from the horizon position information on the image obtained based on the position of the selected straight line and the preset camera position and the preset road width information To obtain a set of straight lines in the group of straight lines that are close to each other, and to obtain the most approximated straight line set of the obtained straight line sets, one end and the other end of the traveling path are respectively approximated to the first and the second. A traveling road discriminating device comprising: a straight line selecting means for selecting as a second straight line set; and a discriminating means for discriminating the shape of the traveling road based on the extracted first and second straight lines. .
【請求項2】走行路をカメラで撮像して得られた画像デ
ータからその形状を判別する走行路判別装置において、 前記走行路端の一部を画像上で近似する直線が存在する
領域であって、該近似直線を特定するためのエッジ情報
が最も良好に得られる下側領域と、前記走行路端の一部
を画像上で近似する直線が存在する領域であって、該下
側領域に隣接しかつ該下側領域に対し画像上前方側に位
置する上側領域とを含む少なくとも2つの領域に、前記
画像を分割する画像分割手段と、 前記画像に含まれる撮像対象の各エッジを示す特徴点を
検出し、該画像上で各特徴点に対してHough変換を
施すことにより、該撮像対象の各エッジを画像上で近似
する直線群を求める直線群抽出手段と、 前記画像上の下側領域内に存在する直線群の中から前記
走行路の一端を画像上で近似する第1の直線対の一方の
候補となる直線を任意に選択しながら、該選択された直
線の位置とあらかじめ設定されたカメラ位置にもとづい
て求められた画像上の地平線位置情報及びあらかじめ設
定された走行路幅情報から算出される理論直線と該選択
された直線との組に近似する前記直線群中の組を順次求
め、 該得られた直線対のうち最も近似している直線対を、前
記一部走行路端をそれぞれ画像上で近似する第1の直線
対として選定する下側直線選定手段と、 前記画像上の上側領域内に存在する直線群のうち前記一
部走行路端を画像上で近似する第2の直線対として、前
記下側領域および上側領域の画像上の境界線と前記第1
の直線対の交点近傍を通る直線群から選定する上側直線
選定手段と、 前記下側領域における第1の直線対が交叉する交点と前
記上側領域における第2の直線対が交叉する交点との相
対位置関係から走行路の形状を判別する判別手段と を備えることを特徴とする走行路判別装置。
2. A traveling road discriminating apparatus for discriminating the shape of image data obtained by picking up an image of a traveling road with a camera, wherein a part of the end of the traveling road is a region in which a straight line is approximated on an image. A lower area where the edge information for specifying the approximate straight line is best obtained, and an area where a straight line approximating a part of the road edge on the image exists, and the lower area An image dividing unit that divides the image into at least two regions including an upper region that is adjacent and that is located on the front side of the image with respect to the lower region, and a feature that indicates each edge of the imaging target included in the image A straight line group extracting means for detecting a point and applying Hough transform to each feature point on the image to obtain a straight line group approximating each edge of the imaging target on the image; From the group of straight lines existing in the area An image obtained based on the position of the selected straight line and a preset camera position while arbitrarily selecting a straight line that is one candidate for the first straight line pair that approximates one end of the traveling path on the image A set in the straight line group that approximates to the set of the theoretical straight line calculated from the upper horizon position information and the preset traveling road width information and the selected straight line is sequentially obtained, and among the obtained straight line pairs A lower straight line selecting means for selecting the most approximate straight line pair as a first straight line pair for approximating the partial traveling road ends on the image, and a straight line group existing in the upper region on the image. Among them, as the second straight line pair that approximates the partial traveling road edge on the image, the boundary line on the image of the lower region and the upper region and the first line
Between the intersection of the first straight line pair in the lower area and the intersection of the second straight pair in the upper area. And a discriminating means for discriminating the shape of the traveling road from the positional relationship.
【請求項3】前記判別手段は、前記上側直線交点が前記
下側直線交点の右に位置するときは走行路は右曲りと判
別し、右に位置するときは左曲りと判別することを特徴
とする請求項2記載の走行路判別装置。
3. The determining means determines that the road is a right turn when the upper straight line intersection is located to the right of the lower straight line intersection and a left bend when the upper straight line intersection is located to the right. The traveling path determination device according to claim 2.
【請求項4】前記判別手段は、前記上側直線交点が前記
下側直線交点の下側に位置するときは走行路は下り坂で
あると判別し、上方に位置するときは上り坂であると判
別することを特徴とする請求項2記載の走行路判別装
置。
4. The discriminating means discriminates that the traveling road is a downhill when the upper straight line intersection is located below the lower straight line intersection, and an uphill slope when the upper road intersection is upside. The traveling road discriminating device according to claim 2, wherein the traveling road discriminating device discriminates.
JP63243329A 1988-09-28 1988-09-28 Driving path identification device Expired - Fee Related JPH0624035B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP63243329A JPH0624035B2 (en) 1988-09-28 1988-09-28 Driving path identification device
DE68925091T DE68925091T2 (en) 1988-09-28 1989-09-28 Method and device for estimating the route
EP89309876A EP0361914B1 (en) 1988-09-28 1989-09-28 A driving way judging device and method
US08/032,409 US5359666A (en) 1988-09-28 1993-03-15 Driving way judging device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63243329A JPH0624035B2 (en) 1988-09-28 1988-09-28 Driving path identification device

Publications (2)

Publication Number Publication Date
JPH0290379A JPH0290379A (en) 1990-03-29
JPH0624035B2 true JPH0624035B2 (en) 1994-03-30

Family

ID=17102206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63243329A Expired - Fee Related JPH0624035B2 (en) 1988-09-28 1988-09-28 Driving path identification device

Country Status (1)

Country Link
JP (1) JPH0624035B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014034187A1 (en) * 2012-08-30 2014-03-06 本田技研工業株式会社 Lane mark recognition device

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5245422A (en) * 1991-06-28 1993-09-14 Zexel Corporation System and method for automatically steering a vehicle within a lane in a road
DE69736764T2 (en) 1996-08-28 2007-01-25 Matsushita Electric Industrial Co., Ltd., Kadoma Local positioning device and method therefor
KR20020053346A (en) 2000-12-27 2002-07-05 이계안 Method for detecting curve for road modeling system
JP4670528B2 (en) * 2005-07-29 2011-04-13 日産自動車株式会社 Imaging device deviation detection method, imaging device deviation correction method, and imaging device
JP2008241446A (en) * 2007-03-27 2008-10-09 Clarion Co Ltd Navigator and control method therefor
JP5747482B2 (en) 2010-03-26 2015-07-15 日産自動車株式会社 Vehicle environment recognition device
CN103582907B (en) * 2011-06-13 2016-07-20 日产自动车株式会社 Vehicle-mounted pattern recognition device and lane recognition method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
電子情報通信学会技術研究報告PRV87−1021988年2月19日PP.25〜32「線分のHough変換と地図中の道路図抽出への応用」平子智明・吉田雄二・福村晃夫

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014034187A1 (en) * 2012-08-30 2014-03-06 本田技研工業株式会社 Lane mark recognition device
JP5855756B2 (en) * 2012-08-30 2016-02-09 本田技研工業株式会社 Lane mark recognition device
US9830518B2 (en) 2012-08-30 2017-11-28 Honda Motor Co., Ltd. Lane mark recognition device

Also Published As

Publication number Publication date
JPH0290379A (en) 1990-03-29

Similar Documents

Publication Publication Date Title
US5359666A (en) Driving way judging device and method
CN112287860B (en) Training method and device of object recognition model, and object recognition method and system
EP0361914B1 (en) A driving way judging device and method
US20020134151A1 (en) Apparatus and method for measuring distances
KR101472787B1 (en) Lane detection system and method thereof
JP2000357233A (en) Body recognition device
KR20080032856A (en) Recognition method of welding line position in shipbuilding subassembly stage
CN116494253B (en) Target object grabbing pose acquisition method and robot grabbing system
CN111814773A (en) Lineation parking space identification method and system
JPH0624035B2 (en) Driving path identification device
WO2019149213A1 (en) Image-based road cone recognition method and apparatus, storage medium, and vehicle
JP3807651B2 (en) White line recognition device
JPH10300494A (en) Vehicle position detecting device and method and route guide device and method
JP3516118B2 (en) Object recognition method and object recognition device
JPH0778234A (en) Course detector
JP2798349B2 (en) Vehicle position detection device
JPH0624036B2 (en) Driving path identification method
JPH1049662A (en) Device for discriminating vehicle
JP3194301B2 (en) Guideline detector
JPH1141521A (en) Image pickup device, instrument and method for measuring distance between vehicles
CN106485200A (en) The water surface object identifying system of environmental protection unmanned plane and its recognition methods
JP4825350B2 (en) Passing object counting device and counting method
JP3436224B2 (en) Vehicle end detection device
JP4055785B2 (en) Moving object height detection method and apparatus, and object shape determination method and apparatus
JPH10283478A (en) Method for extracting feature and and device for recognizing object using the same method

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees