JPH06215290A - Method of detecting object existing ahead of vehicle - Google Patents

Method of detecting object existing ahead of vehicle

Info

Publication number
JPH06215290A
JPH06215290A JP5007018A JP701893A JPH06215290A JP H06215290 A JPH06215290 A JP H06215290A JP 5007018 A JP5007018 A JP 5007018A JP 701893 A JP701893 A JP 701893A JP H06215290 A JPH06215290 A JP H06215290A
Authority
JP
Japan
Prior art keywords
vehicle
polar coordinate
value
line
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5007018A
Other languages
Japanese (ja)
Inventor
Atsushi Sato
藤 淳 佐
Mitsuyoshi Saiki
木 充 義 斉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP5007018A priority Critical patent/JPH06215290A/en
Publication of JPH06215290A publication Critical patent/JPH06215290A/en
Pending legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE:To detect an object existing ahead on a curve road as quickly as possible (during the period of its existence far away) and to improve detecting accuracy. CONSTITUTION:In a method for calculating the differential value of image data representing a scene including a road surface existing ahead of a vehicle on the screen of an X-Y orthogonal coordinate system, for obtaining a straight line representing the range of plural feature points (Xs, Ys) with positions more than a set point value as a feature point (Xs, Ys), detecting right and left end white lines on a traveling lane, and detecting an object in a prescribed area with the straight lines representing the right and left end white lines as a reference point, an area where a road surface is existing ahead of the vehicle on the picture is divided into plural areas in the proceeding direction of the vehicle and the right and left end white lines on the traveling lane are detected successively from the divided area close to the vehicle to detect the object existing between the right and left end white lines.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、車両前方の物体の有無
検出に関し、特に、これに限定する意図ではないが、車
両上において車両前方の、路面を含むシ−ンを撮影し、
撮影画面上で、路面上の先行車両や前方障害物の検出な
らびに自車両との距離を検出する、車上距離検出装置に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to the detection of the presence or absence of an object in front of a vehicle. In particular, although not intended to be limited to this, a scene including a road surface in front of the vehicle is photographed,
The present invention relates to an on-vehicle distance detection device that detects a preceding vehicle or a front obstacle on a road surface and a distance to a vehicle on a shooting screen.

【0002】[0002]

【従来の技術】この種の検出装置の一例が、特開昭64-1
5605号公報に開示されている。これにおいては、車両に
搭載された撮影装置で得た、車両前方の路面を含むシ−
ンをX,Y直交座標系画面に表わす画像デ−タの、X軸
に対して45度の角度をなす方向の微分値を算出してそれ
が設定値以上のX,Y直交座標上の位置を特徴点とし
て、特徴点の連なりを細線に処理し、所定長以上の細線
を摘出して、車両上のテレビカメラから前方を撮影した
場合の、画面上の白線の特徴に基づいて設定された条件
を満す細線を、路面上の白線と認識する。すなわち自車
が走行中のレ−ンの左,右端白線を表わす二直線を得
る。二直線の交点を求めて、該交点から自車両までの二
直線間の領域(3角形領域)で物体の存否を検出し、物
体を検出すると自車両から該物体までの距離(物体が先
行車両であると車間距離)を算出する。
2. Description of the Related Art An example of this type of detection device is disclosed in Japanese Patent Laid-Open No. 64-1
It is disclosed in Japanese Patent No. 5605. In this case, a vehicle including a road surface in front of the vehicle obtained by an image pickup device mounted on the vehicle is used.
Position on the X, Y Cartesian coordinates above the set value by calculating the differential value of the image data showing the image on the X, Y Cartesian coordinate system screen in the direction forming an angle of 45 degrees with respect to the X axis. Is set as a feature point, a series of feature points is processed into a thin line, a thin line with a predetermined length or more is extracted, and it is set based on the feature of the white line on the screen when the front is photographed from the TV camera on the vehicle. A thin line that satisfies the conditions is recognized as a white line on the road surface. That is, two straight lines representing the left and right white lines of the lane on which the vehicle is traveling are obtained. The intersection of the two straight lines is obtained, and the presence or absence of an object is detected in the area between the two straight lines (triangle area) from the intersection to the own vehicle. When the object is detected, the distance from the own vehicle to the object (the object is the preceding vehicle Then the inter-vehicle distance) is calculated.

【0003】[0003]

【発明が解決しようとする課題】自車が走行中のレ−ン
(自車レ−ン)が直線である場合、該レ−ン上の先行車
両はすべて前記3角形領域に存在する(ル−フは外れて
も、車底は該領域内にある)。ところが、左,右端白線
を近似する二直線は、カメラに近い位置の左,右端白線
像に基づいて決定されるので、自車レ−ンが自車前後で
カ−ブしていると、あるいは前方でカ−ブしていると、
直線レ−ンの場合には無限遠点と見なしうる前記二直線
の交点は、自車レ−ンの遠方点よりも左(自車レ−ンが
右にカ−ブの場合)又は右(左にカ−ブの場合)にずれ
る。すなわち、前記交点は、自車レ−ンが右にカ−ブし
ているときには自車レ−ンの遠方点より左側にずれ、左
にカ−ブしているときには右側にずれる。このため、カ
−ブがあるところでは、前記3角形領域内での物体探索
のみでは、遠方の路面がこの3角形領域から外れるの
で、前方物体(先行車両又は障害物)、特に遠方に存在
する物体、の検知に失敗する確率が高くなる。
When the lane in which the vehicle is traveling (the vehicle lane) is a straight line, all the preceding vehicles on the lane are present in the triangular area (rule). -While it is off, the bottom of the car is in that area). However, the two straight lines approximating the left and right white lines are determined based on the left and right white line images close to the camera, so if the vehicle lane covers before and after the vehicle, When carving in the front,
In the case of a straight lane, the intersection point of the two straight lines which can be regarded as an infinite point is left (when the own lane is a curve to the right) or right (a right lane) with respect to the far point of the own lane. In the case of the curve to the left) That is, the intersection is displaced to the left from the far point of the vehicle lane when the vehicle lane is curving to the right, and to the right when the vehicle lane is curving to the left. For this reason, where there is a curve, the distant road surface deviates from this triangular area only by searching for an object in the triangular area, and therefore, there exists a forward object (preceding vehicle or obstacle), particularly a distant object. The probability of failing to detect an object increases.

【0004】一方、自車レ−ンの左,右白線の検出にお
いても、前述の従来の検出方法では、路面が比較的に暗
い場合や白線が消耗している場合には、路面状態が、前
記条件の前提となる路面状態と異なり、誤認識の確率が
高くなるとか、検出不能となる確率が高い。
On the other hand, also in the detection of the left and right white lines of the own vehicle lane, according to the above-mentioned conventional detection method, when the road surface is relatively dark or the white line is exhausted, the road surface condition is Unlike the road surface condition which is the premise of the above conditions, the probability of erroneous recognition is high, or the probability of being undetectable is high.

【0005】本発明は、カ−ブ路上前方の物体を極力早
期に(それが遠方にある間に)検出することを第1の目
的とし、検出精度を向上することを第2の目的とする。
A first object of the present invention is to detect an object in front of the curve of the curve as early as possible (while it is far away), and a second object thereof is to improve the detection accuracy. .

【0006】[0006]

【課題を解決するための手段】本発明は、車両に搭載さ
れた撮影装置で得た、車両前方の路面を含むシ−ンを
X,Y直交座標系画面に表わす画像デ−タの、所定方向
の微分値を算出してそれが設定値以上のX,Y直交座標
上の位置を特徴点(Xs,Ys)として、複数個の特徴点(Xs,Y
s)の連なりを表わす直線を求めて、前記シ−ン内の、前
記車両が走行中のレ−ンの左,右端白線を検出し、左,
右端白線を表わす直線を基準にした前記画面上の所定領
域で物体検出を行なう、車両前方の物体検出方法におい
て、画面上の、車両前方の路面が存在する領域を、車両
の進行方向で複数個に分割し、車両に近い分割領域から
順次に、分割領域における走行中のレ−ンの左,右端白
線の検出を行ない、少くとも白線検出を行なった分割領
域内の、左,右端白線の間の走行中レ−ン領域の物体検
出を行なうことを特徴とする。
SUMMARY OF THE INVENTION According to the present invention, a predetermined image data representing a scene including a road surface in front of the vehicle, which is obtained by a photographing device mounted on the vehicle, is displayed on an X, Y orthogonal coordinate system screen. A differential value in the direction is calculated, and a position on the X, Y Cartesian coordinates that is greater than or equal to the set value is set as a characteristic point (Xs, Ys), and a plurality of characteristic points (Xs, Y
s) is obtained, a straight line is obtained to detect the left and right white lines of the lane in which the vehicle is running in the scene, and the left,
In an object detecting method in front of a vehicle, which detects an object in a predetermined area on the screen based on a straight line representing a white line on the right end, a plurality of areas on the screen where a road surface in front of the vehicle exists are arranged in the traveling direction of the vehicle. The left and right edge white lines of the running lane in the divided area are sequentially detected from the divided area close to the vehicle, and at least between the left and right edge white lines in the divided area where the white line is detected. It is characterized in that it detects an object in the lane area during traveling.

【0007】本発明の好ましい実施例では、自車レ−ン
の左,右端白線を近似する直線を、公知のハフ変換を利
用して検出する。すなわち、特徴点(Xs,Ys)のそれぞれ
を、ρ,θ極座標系の極座標値(ρ,θ)に変換し、極
座標値(ρ,θ)に割当てた記憶手段の度数デ−タをイ
ンクレメントし、度数デ−タが最大値となった極座標値
(ρm,θm)を摘出してこの極座標値(ρm,θm)で表
わされる直線を、左,右端白線を表わす二直線の一方と
して決定する。この直線検出の演算処理時間を短くしか
つ検出精度を高くするために、本発明の好ましい実施例
では、前記極座標変換を複数回繰返し、この繰返しにお
いてρ,θは、先行の極座標変換では低密度かつ広い範
囲とし、後行の極座標変換では高密度かつ先行の極座標
変換で得た極座標値(ρm,θm)を中心とする狭い範囲
とする。
In a preferred embodiment of the present invention, a straight line that approximates the left and right white lines of the vehicle lane is detected by using the known Hough transform. That is, each of the characteristic points (Xs, Ys) is converted into the polar coordinate value (ρ, θ) of the ρ, θ polar coordinate system, and the frequency data of the storage means assigned to the polar coordinate value (ρ, θ) is incremented. Then, the polar coordinate value (ρm, θm) having the maximum frequency data is extracted, and the straight line represented by this polar coordinate value (ρm, θm) is determined as one of the two straight lines representing the left and right white lines. . In order to shorten the calculation processing time of this straight line detection and to increase the detection accuracy, in the preferred embodiment of the present invention, the polar coordinate conversion is repeated a plurality of times, and in this repetition, ρ and θ have a low density in the preceding polar coordinate conversion. In addition, in the subsequent polar coordinate conversion, a high density and a narrow range centered on the polar coordinate values (ρm, θm) obtained in the preceding polar coordinate conversion are used.

【0008】[0008]

【作用】画面上の、車両前方の路面が存在する領域を、
車両の進行方向で複数個に分割し、車両に近い分割領域
から順次に、分割領域における走行中のレ−ンの左,右
端白線の検出を行ない、検出した左,右端白線の間の走
行中レ−ン領域の物体検出を行なうので、自車両直前か
ら遠方まで、物体検出領域が左右端白線の間に自動的に
定まるので、物体探索領域が遠方点で走行中レ−ン領域
から外れることがなく、比較的に遠方点の物体検出漏れ
が低減する。
[Function] The area on the screen where the road surface in front of the vehicle exists
The vehicle is divided into a plurality of areas in the traveling direction of the vehicle, and the left and right white lines of the running lane in the divided areas are sequentially detected from the divided areas close to the vehicle, and the running between the detected left and right white lines is performed. Since the object detection in the lane area is performed, the object detection area is automatically determined between the white lines on the left and right edges from immediately before the own vehicle to the distance, so the object search area should be outside the running lane area at the far point. And the object detection omission at a distant point is relatively reduced.

【0009】本発明の好ましい実施例では、ハフ変換を
用いて自車レ−ンの左,右端白線の検出を行なうので、
検出精度が向上し、また、複数回の極座標変換を、広範
囲,粗いピッチから、順次に挟い範囲,密なるピッチで
行なうので、直線検出処理時間が短く、かつ検出精度が
高い。
In the preferred embodiment of the present invention, the Hough transform is used to detect the left and right white lines of the vehicle lane.
The detection accuracy is improved, and a plurality of polar coordinate conversions are performed from a wide range and a coarse pitch to a sandwiching range and a dense pitch sequentially, so that the straight line detection processing time is short and the detection accuracy is high.

【0010】本発明の他の目的および特徴は、図面を参
照した以下の実施例の説明より明らかになろう。
Other objects and features of the present invention will become apparent from the following description of embodiments with reference to the drawings.

【0011】[0011]

【実施例】【Example】

−実施例1− 図1に本発明の第1実施例の構成を示す。このシステム
はマイクロコンピュ−タ(以下CPUという)1を中心
に構成されており、そのバスラインには、制御プログラ
ムが格納された読み出し専用メモリ(ROM)2,処理
中のパラメ−タが格納される読み書きメモリ(RAM)
3、および、各種構成要素が接続された入出力ポ−ト
(I/O)4,5,6等が接続されている。
First Embodiment FIG. 1 shows the configuration of the first embodiment of the present invention. This system is mainly composed of a microcomputer (hereinafter referred to as CPU) 1, and its bus line stores a read-only memory (ROM) 2 in which a control program is stored and a parameter being processed. Read / write memory (RAM)
3, and input / output ports (I / O) 4, 5, 6 and the like to which various components are connected are connected.

【0012】テレビカメラ6bは、図2に示すように、
車内のフロントウィンドウの中央上部付近に設置されて
おり、前方のシ−ンを撮影して1フレ−ム当り512×
512画素のアナログ信号を出力する。このアナログ画
信号は、A/Dコンバ−タ6cおよびCRTドライバ4
aに与えられる。A/Dコンバ−タ6cにおいては、テ
レビカメラ6bよりのアナログ画信号を各画素毎に25
6階調(階調0が黒レベル、階調255が白レベル)の
デジタルデ−タ(階調デ−タ)に変換してイメ−ジメモ
リ5aに与える。なお、イメ−ジメモリ5aは、一画面
(512×512画素)の階調デ−タを記憶する領域を
一頁とするとその数頁分の階調デ−タ記憶領域と、1ビ
ット情報(2値デ−タ)を数画面分記憶する2値デ−タ
記憶領域を有する。
The television camera 6b, as shown in FIG.
It is installed near the upper center of the front window in the car. The front scene is photographed and 512 x per frame.
It outputs an analog signal of 512 pixels. This analog image signal is sent to the A / D converter 6c and the CRT driver 4
given to a. In the A / D converter 6c, the analog image signal from the television camera 6b is set to 25 for each pixel.
It is converted into digital data (gradation data) of 6 gradations (gradation 0 is a black level and gradation 255 is a white level) and is given to the image memory 5a. In the image memory 5a, assuming that the area for storing the gradation data of one screen (512 × 512 pixels) is one page, the gradation data storage area for several pages and 1-bit information (2 It has a binary data storage area for storing (value data) for several screens.

【0013】CPU1は、テレビカメラコントロ−ラ6
aを介してテレビカメラ6bの絞りおよび画信号の出力
レベル等を制御し、A/Dコンバ−タ6cの入出力およ
びイメ−ジメモリ5aの書込み処理等を同期制御する。
CRTドライバ4aは、テレビカメラ6bより与えられ
たアナログ画信号が表わす画像(例えば図16)に、C
PU1のコントロ−ルのもとに与えられるデジタル画像
(デジタル出力画像;例えば自車走行レ−ンの左,右端
の白線を近似した直線ならびに前方走行車両との車間距
離を示す文字,数字情報)を合成した画像を、車両上の
インナ−パネルの中央付近に設置されたCRT4bに表
示する。
The CPU 1 is a television camera controller 6
The aperture of the television camera 6b and the output level of the image signal are controlled via a, and the input / output of the A / D converter 6c and the writing process of the image memory 5a are synchronously controlled.
The CRT driver 4a adds C to the image (for example, FIG. 16) represented by the analog image signal supplied from the television camera 6b.
Digital image provided under the control of PU1 (digital output image; for example, straight lines approximating the white lines at the left and right ends of the vehicle running lane, and character and numerical information indicating the distance between the vehicles running ahead) The combined image is displayed on the CRT 4b installed near the center of the inner panel on the vehicle.

【0014】図3に、CPU1の処理動作の概要を示
す。大略でCPU1は、それ自身に電源が投入されると
入出力ポ−トの初期化,内部レジスタ,内部カウンタの
初期化等(初期化A)を行なった後、一画面のアナログ
画信号を所定周期でデジタル変換してイメ−ジメモリ5
aの入力デ−タメモリ領域に書込む(画像入力B)。こ
れを行なう毎にCPU1は、「画面の校正」Cおよび
「ウィンドウ2−1内の車両検出」DET1を実行し、
このDET1で自車走行レ−ン上に先行車両を検出しな
かった場合にはDET1に加えて「ウィンドウ2−2内
の車両検出」DET2を実行する。このDET2でも自
車走行レ−ン上に先行車両を検出しなかった場合には、
DET2に加えて更に「ウィンドウ2−3内の車両検
出」DET3を実行する。DET1では、「自車レ−ン
検出」Dおよび自車レ−ン検出の成否チェックE、なら
びに、自車レ−ン検出が成立(成功)した場合は「隣接
レ−ンの推定」F,「自車レ−ン先行車認識及び測距」
H,「右隣接レ−ン車両認識及び測距」I,「左隣接レ
−ン車両認識及び測距」Jおよび「出力」Kを、この記
載順に実行する。DET2およびDET3でもこれらを
同様に実行する。ただし、画像デ−タが表わす画面上の
処理対象領域は異なる。
FIG. 3 shows an outline of the processing operation of the CPU 1. Generally, the CPU 1 initializes an input / output port, initializes an internal register and an internal counter (initialization A) when the power is turned on, and then determines an analog image signal of one screen. Image memory 5 with digital conversion in cycles
The data is written in the input data memory area of a (image input B). Every time this is performed, the CPU 1 executes “screen calibration” C and “vehicle detection in window 2-1” DET1,
When the preceding vehicle is not detected on the vehicle traveling lane by this DET1, the "vehicle detection in the window 2-2" DET2 is executed in addition to the DET1. Even if this DET2 does not detect the preceding vehicle on the vehicle traveling lane,
In addition to DET2, “Detect vehicle in window 2-3” DET3 is further executed. In DET1, "own vehicle lane detection" D and own vehicle lane detection success / failure check E, and "own vehicle lane detection" success (success), "adjacent lane estimation" F, "Self-vehicle lane preceding vehicle recognition and distance measurement"
H, "right adjacent lane vehicle recognition and distance measurement" I, "left adjacent lane vehicle recognition and distance measurement" J, and "output" K are executed in this order. Do the same for DET2 and DET3. However, the processing target area on the screen represented by the image data is different.

【0015】そして「出力」Kでは、自車レ−ン端部の
白線を表わす直線,自車レ−ン先行車の検出有無を示す
文字情報,該先行車を囲む4角マ−クおよび該先行車と
の車間距離、右隣接レ−ン車両の検出有無を示す文字情
報,該先行車を囲む4角マ−クおよび該先行車との車間
距離、ならびに、左隣接レ−ン車両の検出有無を示す文
字情報,該先行車を囲む4角マ−クおよび該先行車との
車間距離、を撮影画像に合成してCRT4bに更新表示
すると共に、自車レ−ン端部の白線を表わす直線を示す
デ−タならびに各車間距離を表わすデ−タを、通信コン
トロ−ラ7(図1)を介してホストCPU8に転送す
る。ホストCPU8は、これらの情報を、車間距離制御
(車間距離対応のアクセル制御,オ−バドライブ遮断制
御および又は車輪ブレ−キ圧制御),障害物検知&車輪
ブレ−キ圧制御,レ−ン逸脱警報制御,レ−ン倣い走行
制御(ステアリング制御および又は各輪毎の車輪ブレ−
キ圧制御)等の、走行自動制御に使用する。以下、図3
に示す「画面の校正」C以下「左隣接レ−ン車両認識及
び測距」Jの各項目の内容を詳細に説明する。
In "output" K, a straight line representing the white line at the end of the own vehicle lane, character information indicating whether or not a preceding vehicle of the own vehicle lane is detected, a square mark surrounding the preceding vehicle and the Distance between the preceding vehicle, character information indicating whether or not a right adjacent lane vehicle is detected, a square mark surrounding the preceding vehicle and a distance between the preceding vehicle and a left adjacent lane vehicle Character information indicating presence / absence, a square mark surrounding the preceding vehicle, and a distance between the preceding vehicle and the preceding vehicle are combined into a photographed image, which is updated and displayed on the CRT 4b, and a white line at the end of the own vehicle lane is displayed. The data representing a straight line and the data representing each inter-vehicle distance are transferred to the host CPU 8 via the communication controller 7 (FIG. 1). The host CPU 8 applies these information to the following distance control (accelerator control corresponding to the following distance, overdrive cutoff control and / or wheel brake pressure control), obstacle detection & wheel brake pressure control, lane. Deviation warning control, lane copying traveling control (steering control and / or wheel blurring for each wheel)
Used for automatic travel control such as pressure control). Below, FIG.
The contents of each item of "Screen calibration" C and "Left adjacent lane vehicle recognition and distance measurement" J will be described in detail.

【0016】C.「画面の校正」C(図4) この内容を図4に示す。まず「特徴点検出ウィンドウセ
ット」C1を実行する。
C. "Screen calibration" C (Fig. 4) This content is shown in Fig. 4. First, the "feature point detection window set" C1 is executed.

【0017】 C1.「特徴点検出ウィンドウ1セット」C1(図5) この内容を図5の(a)に示す。図5の(b)に示すよ
うに、テレビカメラ6bの撮影画面(画像デ−タは入力
デ−タメモリにある階調デ−タ)の左上を原点(0,
0)に定めて、一点(0,350)ともう一点(51
1,511)を対角コ−ナとする画像領域を特徴点検出
用の領域(ウィンドウ1)に定める。すなわち、定めよ
うとする領域の左上コ−ナのX座標値0をレジスタXU
Lに、Y座標値511をレジスタYULに、該領域の右
下コ−ナのX座標値511をレジスタXLRに、Y座標
値350をレジスタYLRに書込む(図5の(a)のス
テップ1;以下カッコ内ではステップという語は省略
し、ステップNo.のみを記す)。これらのレジスタの
それぞれのデ−タが示す値を以下、レジスタ記号そのも
ので表わす。
C1. “One set of feature point detection window” C1 (FIG. 5) This content is shown in FIG. As shown in FIG. 5 (b), the upper left of the shooting screen of the television camera 6b (the image data is gradation data in the input data memory) is the origin (0,
0), one point (0,350) and another point (51
1, 511) is set as a diagonal corner of an image area for feature point detection (window 1). That is, the X coordinate value 0 of the upper left corner of the area to be determined is set in the register XU.
Write the Y coordinate value 511 to the register YUL, the X coordinate value 511 of the lower right corner of the area to the register XLR, and the Y coordinate value 350 to the register YLR (step 1 in FIG. 5A). ; In the following, in parentheses, the word step is omitted, and only the step number is described). The value indicated by the data of each of these registers will be represented below by the register symbol itself.

【0018】次に説明する「特徴点検出(UP)」C2
の処理(図6)に対して、上述の「特徴点検出ウィンド
ウセット」C1により、図5の(b)に示すように、2
点鎖線で示すブロック(特徴点検出ウィンドウ1)が、
処理対象領域に指定されたことになる。この領域は、図
5の(b)に示すように、車両のボンネットの先端エッ
ジ像を十分に含むものである。
"Characteristic point detection (UP)" C2 described below
5 (b) of FIG. 5 by the above-mentioned "feature point detection window set" C1 for the processing of FIG.
The block (feature point detection window 1) shown by the dotted line is
It has been designated as the processing target area. As shown in FIG. 5B, this region sufficiently includes the leading edge image of the hood of the vehicle.

【0019】次に「特徴点検出(UP)」C2を実行す
る。この内容を図6に示す。
Next, "feature point detection (UP)" C2 is executed. This content is shown in FIG.

【0020】 C2.「特徴点検出(UP)」C2(図6) ここでは、特徴点検出ウィンドウ1の左下コ−ナ(0,
511)よりY方向2画素上方の画素(0,509)か
ら、Y方向座標値を350まで順次小さくするY方向の
下から上への走査により、該方向(X=0の直線上)に
分布する画素を順次に注目画素に指定して(図6のaの
2〜11)、各注目画素(Xs,Ys)に関して、それ
より1画素下側の画素(Xs,Ys+1)と2画素下側
の画素(Xs,Ys+2)の階調デ−タが表わす輝度の
和と、注目画素(Xs,Ys)より1画素上側の画素
(Xs,Ys−1)と2画素上側の画素(Xs,Ys−
2)の、入力デ−タメモリにある階調デ−タが表わす輝
度の和、の差の絶対値すなわち上下方向(Y方向)の階
調微分値の絶対値を算出する(8)。これを注目画素点
(Xs,Ys)の階調微分値D(Xs,Ys)とする。
この階調微分値D(Xs,Ys)は、図6の(b)に示
すように、注目点(Xs,Ys)の上側2画素の画像濃
度和と下側2画素の画像濃度和との差の絶対値であるの
で、注目点を境にした上下方向の濃度変化を表わし、画
面上の各像の、水平方向に延びる輪郭線のところで大き
い値となる。この階調微分値D(Xs,Ys)がしきい
値Th1(設定値)以上であるかをチェックして
(9)、Th1以上であると、イメ−ジメモリ5aのあ
る領域に割り当てている2値デ−タテ−ブルの、注目画
素点(Xs,Ys)対応アドレスE(Xs,Ys)に、
「1」を書込む(10)。この情報「1」は、像の水平
方向に延びる輪郭線であることを意味する。Y方向にこ
のような処理を一ライン分(X=0,Y=509〜35
0)行なうと、走査線を右方向に移して(6)、次の一
ライン分(X=1,Y=509〜350)につき同様な
処理を行なう。以下同様に、最後のライン(X=51
1,Y=509〜350)まで同様な処理を行なう。
C2. “Feature point detection (UP)” C2 (FIG. 6) Here, the lower left corner (0,
511) The pixel (0, 509) two pixels above in the Y direction is scanned in the Y direction from the bottom to the top in which the Y direction coordinate value is sequentially reduced to 350. Pixels to be designated are sequentially designated as target pixels (2 to 11 in FIG. 6A), and for each target pixel (Xs, Ys), a pixel (Xs, Ys + 1) one pixel below and two pixels below Of the luminance represented by the gradation data of the pixel (Xs, Ys + 2), and the pixel (Xs, Ys-1) one pixel above and the pixel (Xs, Ys) two pixels above the target pixel (Xs, Ys). −
The absolute value of the difference between 2) and the sum of the brightness represented by the gradation data in the input data memory, that is, the absolute value of the gradation differential value in the vertical direction (Y direction) is calculated (8). This is defined as the gradation differential value D (Xs, Ys) of the target pixel point (Xs, Ys).
This gradation differential value D (Xs, Ys) is obtained by comparing the image density sum of the upper two pixels and the image density sum of the lower two pixels of the target point (Xs, Ys) as shown in FIG. 6B. Since it is the absolute value of the difference, it represents the change in density in the vertical direction with respect to the point of interest, and has a large value at the contour line extending horizontally of each image on the screen. It is checked whether or not the gradation differential value D (Xs, Ys) is equal to or more than a threshold value Th1 (set value) (9). If it is Th1 or more, it is assigned to a certain area of the image memory 5a. At the address E (Xs, Ys) corresponding to the target pixel point (Xs, Ys) of the value data table,
Write "1" (10). This information "1" means that it is a contour line extending in the horizontal direction of the image. Such processing is performed in the Y direction for one line (X = 0, Y = 509 to 35).
0), the scanning line is moved to the right (6), and the same processing is performed for the next one line (X = 1, Y = 509 to 350). Similarly, the last line (X = 51
1, Y = 509 to 350) are similarly processed.

【0021】以上の処理により、イメ−ジメモリ5aの
2値デ−タテ−ブルE(Xs,Ys),Xs=0〜51
1,Ys=509〜350)に、特徴点検出ウィンドウ
1(図5のb)内の像の水平方向に延びる輪郭線を示す
情報が書込まれたことになる。特徴点検出ウィンドウ1
は、ボンネットの先端エッジ像を含む領域に設定されて
いるので、2値デ−タテ−ブルE(Xs,Ys)にはボ
ンネットの先端エッジを表わす情報が含まれている。こ
の実施例では、ボンネットの先端エッジを直線と見なし
て、次の「ボンネット検出」C3で該直線を検出する。
この内容を図7に示す。
By the above processing, the binary data table E (Xs, Ys), Xs = 0 to 51 of the image memory 5a.
1, Ys = 509 to 350), information indicating the contour line extending in the horizontal direction of the image in the feature point detection window 1 (b in FIG. 5) is written. Feature point detection window 1
Is set in a region including the leading edge image of the bonnet, so the binary data table E (Xs, Ys) contains information representing the leading edge of the bonnet. In this embodiment, the leading edge of the bonnet is regarded as a straight line, and the straight line is detected by the next "bonnet detection" C3.
This content is shown in FIG.

【0022】C3.「ボンネット検出」C3(図7) まず大要を説明するとここでは、公知の「ハフ(Houg
h)変換」を用いて直線を検出する。ハフ変換は、直交
座標系(X−Y座標系;例えば特徴点検出ウィンドウ1
内の画素分布)で表現されている情報(例えば前記2値
デ−タテ−ブルE(Xs,Ys))を、極座標系(ρ−
θ座標系)で表現する手法であり、 ρ=Xcos(θ)+Ysin(θ) の変換を行なう。X−Y座標系におけるある一点(画
素)はρ−θ極座標系(ρとθを直交2軸の一方と他方
に割り当てる直交座標平面)ではある曲線となり、X−
Y座標系において直線上に乗っている各点をρ−θ座標
系で各曲線で表わすと、これらの曲線は一点で交わる。
この交点をX−Y座標系への変換式に代入することによ
り、X−Y座標系での直線式が得られる。
C3. "Bonnet detection" C3 (Fig. 7) First, the outline is explained here by the known "Houg (Houg
h) Transform ”to detect a straight line. The Hough transform is performed in a rectangular coordinate system (XY coordinate system; for example, the feature point detection window 1
Information (for example, the binary data table E (Xs, Ys)) represented by the pixel distribution in the polar coordinate system (ρ-
This is a method of expressing in the (θ coordinate system), and the conversion of ρ = Xcos (θ) + Ysin (θ) is performed. A certain point (pixel) in the XY coordinate system becomes a certain curve in the ρ-θ polar coordinate system (orthogonal coordinate plane that allocates ρ and θ to one and the other of the two orthogonal axes), and X-
When each point on the straight line in the Y coordinate system is represented by each curve in the ρ-θ coordinate system, these curves intersect at one point.
By substituting this intersection point into the conversion formula to the XY coordinate system, the linear formula in the XY coordinate system can be obtained.

【0023】したがって、前記2値デ−タテ−ブルE
(Xs,Ys)上の特徴点情報「1」を有する座標をρ
−θ極座標値に変換し、ρ−θ極座標系において曲線の
交点を求め、この交点をX−Y座標系への変換式に代入
することにより、特徴点を結ぶ直線を求めることができ
る。しかし、単に2点を結ぶ直線はX−Y座標系で直接
に求めることができ、ρ−θ極座標系への変換を行なう
意味はない。ところが、画面上のボンネット輪郭線は、
実際のボンネットの先端輪郭線がカ−ブしているとか、
ボンネットへの光の当り具合などにより画面上カ−ブし
ているとかあるいは粗れており、ボンネット輪郭線を直
線で近似する場合、単に2値デ−タテ−ブルE(Xs,
Ys)上の特徴点情報「1」がある2点を結ぶ直線を求
めたのでは、近似誤差が大き過ぎるし、ボンネットでな
いものの輪郭線を摘出してしまうこともあり得る。図5
の(b)および図16に示すように、ボンネット輪郭線
は広い領域に分布しているので、2値デ−タテ−ブルE
(Xs,Ys)上には特徴点情報「1」が多く存在す
る。したがって、該「1」がある2点(画素)を結ぶ直
線は多数得られる。多数得た直線群を代表する右下りの
一直線を確定すると、それはボンネットの先端輪郭線の
右半分を最も良く近似するものである(図7のb)。同
様に、多数得た直線群を代表する左下りの一直線を確定
すると、それはボンネットの先端輪郭線の左半分を最も
良く近似するものである(図7のb)。しかしながらこ
のような統計的処理をX−Y座標系で行なうと処理がき
わめて複雑となる。ところがハフ変換を用いて、2値デ
−タテ−ブルE(Xs,Ys)上の特徴点情報「1」が
ある座標(特徴点)をρ−θ極座標系へ変換すると、各
特徴点を表わす曲線の交点が2点(ボンネットの右半分
輪郭線と左半分輪郭線に対応)に集中する。したがって
2値デ−タテ−ブルE(Xs,Ys)の特徴点をハフ変
換し、ρ−θ極座標系上の各点で、曲線が通る度数(一
点を通る曲線の数)をカウントし、度数が最大の点と次
に大きい点の二点を選択して、選択した各点をX−Y座
標系への変換式に代入することによりボンネットの輪郭
線の右半分,左半分を表わす直線式が得られる。この実
施例ではこのような論理に従って、すなわちハフ変換と
ρ−θ極座標系上各点を曲線が通る度数のカウントによ
り、ボンネットの先端輪郭線を検出する。
Therefore, the binary data table E
The coordinate having the feature point information “1” on (Xs, Ys) is ρ
A straight line connecting the characteristic points can be obtained by converting into −θ polar coordinate values, obtaining the intersection of the curves in the ρ−θ polar coordinate system, and substituting this intersection into the conversion formula to the XY coordinate system. However, the straight line connecting the two points can be directly obtained in the XY coordinate system, and there is no point in converting to the ρ-θ polar coordinate system. However, the bonnet outline on the screen is
The contour of the tip of the actual bonnet is curved,
When the bonnet contour is approximated by a straight line, the binary data table E (Xs,
If the straight line connecting the two points having the feature point information “1” on Ys) is obtained, the approximation error is too large, and the contour line of the non-bonnet may be extracted. Figure 5
As shown in FIG. 16B and FIG. 16, the bonnet outline is distributed over a wide area, so that the binary data table E
A lot of feature point information “1” exists on (Xs, Ys). Therefore, a large number of straight lines connecting the two points (pixels) having the "1" are obtained. When a straight line descending to the right that represents a large number of straight lines is determined, it is the one that best approximates the right half of the bonnet tip contour line (b in FIG. 7). Similarly, when a straight line to the left that represents a large number of straight lines is determined, it is the one that best approximates the left half of the bonnet tip contour line (b in FIG. 7). However, if such statistical processing is performed in the XY coordinate system, the processing becomes extremely complicated. However, when the coordinates (feature points) having the feature point information “1” on the binary data table E (Xs, Ys) are transformed into the ρ-θ polar coordinate system using the Hough transform, each feature point is represented. The intersections of the curves are concentrated at two points (corresponding to the right half contour line and the left half contour line of the bonnet). Therefore, the characteristic points of the binary data table E (Xs, Ys) are Hough transformed, and the frequency at which the curve passes (the number of curves passing through one point) is counted at each point on the ρ-θ polar coordinate system. Select the two points, the maximum point and the next largest point, and substitute each selected point into the conversion formula to the XY coordinate system to express the right half and the left half of the bonnet outline. Is obtained. In this embodiment, the tip contour line of the bonnet is detected according to such a logic, that is, by counting the number of times the curve passes through each point on the ρ-θ polar coordinate system.

【0024】ところで、ρ−θ極座標系上各点での曲線
交鎖度数のカウントを、2値デ−タテ−ブルE(Xs,
Ys)のサイズ対応の大きさのρ−θ極座標系全領域の
各点で行なうと、曲線が通る度数のカウント処理が膨大
となり、直線検出処理に長い時間がかかる。そこでこの
実施例では、2値デ−タテ−ブルE(Xs,Ys)の最
下端の左右中間点(X=255,Y=511)をρ−θ
極座標系の原点(0,0)に定め、かつ、2値デ−タテ
−ブルE(Xs,Ys)を左右に2分して、右半分につ
いて、第1ハフ変換で、2値デ−タテ−ブルE(Xs,
Ys)の特徴点を、低密度(サンプリングピッチが大き
い)ρ−θ極座標系に変換して該極座標系の各点を曲線
が通る度数(一点を通る曲線の数)をカウントし、度数
が最大の点(第1予測点)を求める。次に第2ハフ変換
で、第1予測点を中心とする小範囲のρ−θ領域を設定
し、該領域の大きさの中密度ρ−θ極座標系に2値デ−
タテ−ブルE(Xs,Ys)の特徴点を変換してこのρ
−θ極座標系の各点を曲線が通る度数をカウントし、度
数が最大の点(第2予測点)を求める。そして第3ハフ
変換で、第2予測点を中心とする更に小範囲のρ−θ領
域を設定し、該領域の大きさの高密度ρ−θ極座標系に
2値デ−タテ−ブルE(Xs,Ys)の特徴点を変換し
てこのρ−θ極座標系の各点を曲線が通る度数をカウン
トし、度数が最大の点(第3予測点)を求める。そして
この第3予測点で表わされる直線をボンネットの先端輪
郭線の右半分と決定する(図7の12R〜14R)。2
値デ−タテ−ブルE(Xs,Ys)の左半分について
も、同様に第1ハフ変換,第2ハフ変換および第3ハフ
変換を行って、ボンネットの先端輪郭線の左半分を表わ
す直線を決定する(図7の12L〜14L)。
By the way, the count of the curve crossing frequency at each point on the ρ-θ polar coordinate system is represented by the binary data table E (Xs,
If it is performed at each point in the entire region of the ρ-θ polar coordinate system having a size corresponding to the size of Ys), the count process of the number of times the curve passes becomes enormous, and the straight line detection process takes a long time. Therefore, in this embodiment, the right and left intermediate points (X = 255, Y = 511) at the lowermost end of the binary data table E (Xs, Ys) are set to ρ-θ.
It is set at the origin (0, 0) of the polar coordinate system, and the binary data table E (Xs, Ys) is divided into left and right, and the right half is converted into binary data by the first Hough transform. -Bull E (Xs,
The characteristic point of Ys) is converted into a low-density (large sampling pitch) ρ-θ polar coordinate system, and the number of times the curve passes through each point of the polar coordinate system (the number of curves passing through one point) is counted. Point (first prediction point) is obtained. Next, the second Hough transform is used to set a small range ρ-θ region centered on the first prediction point, and the size of the region is set to the medium density ρ-θ polar coordinate system.
The characteristic point of the table E (Xs, Ys) is converted to
The number of times the curve passes through each point of the −θ polar coordinate system is counted, and the point with the highest frequency (second predicted point) is obtained. Then, in the third Hough transform, a smaller range ρ-θ region centered around the second prediction point is set, and the binary data table E (is set in the high density ρ-θ polar coordinate system of the size of the region. (Xs, Ys) are converted to count the frequency at which the curve passes through each point of this ρ-θ polar coordinate system, and the point with the maximum frequency (third prediction point) is obtained. Then, the straight line represented by the third predicted point is determined as the right half of the bonnet tip contour line (12R to 14R in FIG. 7). Two
The left half of the value data table E (Xs, Ys) is similarly subjected to the first Hough transform, the second Hough transform and the third Hough transform to obtain a straight line representing the left half of the bonnet tip contour line. It is determined (12L to 14L in FIG. 7).

【0025】次に図7の(a)を参照して、「ボンネッ
ト検出」C3の内容を詳細に説明する。まずボンネット
の先端輪郭線の右半分を近似する直線を検出するための
パラメ−タを設定する(12R)。そして該近似する直
線対応の点(Rm3,Tm3)を検出する(13R)。Rm3
はρ−θ極座標系のρ値、Tm3はθ値である。求めた点
の座標値をレジスタRmR,TmRに格納する(14R)。
同様な処理をボンネットの先端輪郭線の左半分を近似す
る直線を検出するために行なう(12L〜14L)。ハ
フ変換により直線を検出する「直線当てはめ」13R,
13Lの内容は、図17〜図21に示す「直線当ては
め」63の内容と同様であるので、ここでの詳細な説明
は省略する。なお、「直線当てはめ」63は、特徴点検
出ウィンドウ1に接して上側の特徴点検出ウィンドウ2
−1(図16)の領域にある路上の白線像の近似直線を
検出するものであるが、「直線当てはめ」13Rはウィ
ンドウ1の右半分の領域の直線を検出するものであるの
で、処理対象のX−Y座標領域(始点座標値および終点
座標値)は異なる。「直線当てはめ」13Lでも同様に
処理対象のX−Y座標領域が「直線当てはめ」63とは
異なる。また「直線当てはめ」63では、ウィンドウ2
−1の全領域を処理対象領域とし、その内に右端白線と
左端白線が存在するので、度数が最大の点と次に大きい
点の二点(2直線)を求めるが、「直線当てはめ」13
Rと「直線当てはめ」13Lは左,右半分の領域である
ので、それぞれ度数が最大の点のみを求める。他の処理
は同様である。
Next, the contents of "bonnet detection" C3 will be described in detail with reference to FIG. First, parameters are set for detecting a straight line that approximates the right half of the bonnet tip contour line (12R). Then, the point (R m3 , T m3 ) corresponding to the approximate straight line is detected (13R). R m3
Is the ρ value in the ρ-θ polar coordinate system, and T m3 is the θ value. The obtained coordinate value of the point is stored in the registers R mR and T mR (14R).
Similar processing is performed to detect a straight line that approximates the left half of the bonnet tip contour line (12L to 14L). "Line fitting" 13R, which detects straight lines by Hough transform,
The contents of 13L are the same as the contents of the “straight line fitting” 63 shown in FIGS. 17 to 21, and therefore detailed description thereof is omitted here. Note that the “straight line fitting” 63 is in contact with the feature point detection window 1 and the upper feature point detection window 2
-1 (FIG. 16) detects an approximate straight line of a white line image on the road, but the "straight line fitting" 13R detects a straight line in the right half region of the window 1, and therefore is to be processed. X-Y coordinate areas (start point coordinate value and end point coordinate value) are different. Similarly, in the "straight line fitting" 13L, the XY coordinate area to be processed is different from that of the "straight line fitting" 63. Also, in the "straight line fitting" 63, the window 2
Since the entire area of -1 is the processing target area and the right end white line and the left end white line are present in that area, two points (the two straight lines) of the point with the highest frequency and the point with the next highest frequency are obtained.
Since R and the "straight line fitting" 13L are the left and right half regions, only the point with the highest frequency is obtained. The other processing is the same.

【0026】「直線当てはめ」13Rおよび13Lで求
めた直線それぞれは、極座標系の点(RmR,TmR)およ
び(RmL,TmL)で表わされ、これらの直線をX−Y座
標系で表わすと、 RmR=Xcos(TmR)+Ysin(TmR) および RmL=Xcos(TmL)+Ysin(TmL) となる。これらの直線は、図7の(b)に示す如きもの
である。
[0026] The "line fitting" straight lines obtained in 13R and 13L, the polar coordinate system point (R mR, T mR) and (R mL, T mL) is represented by, X-Y coordinate system these linear When expressed by, R mR = Xcos (T mR ) + Ysin (T mR ) and R mL = Xcos (T mL ) + Ysin (T mL ). These straight lines are as shown in FIG. 7 (b).

【0027】C4.「直線交点計算」C4(図8) 図4を再度参照するとCPU1は、上述の「ボンネット
検出」C3を終了すると、「直線交点計算」C4のブロ
ックに接したブロック中に示す計算で、これらの直線の
交点(Xc,Yc)を算出する。この計算において、X
chは2値デ−タテ−ブルE(Xs,Ys)の領域のX
方向中央位置(Xch=255)、Ychは最下端位置
(Ych=509)であり、点(Xch,Ych)は前
述の直線検出で極座標原点に定めたものである。
C4. "Straight line intersection calculation" C4 (Fig. 8) Referring again to Fig. 4, when the above "bonnet detection" C3 is completed, the CPU 1 performs the calculation shown in the block adjacent to the "straight line intersection calculation" C4 block. The intersection (Xc, Yc) of the straight line is calculated. In this calculation, X
ch is the X of the area of the binary data table E (Xs, Ys).
The directional center position (Xch = 255), Ych is the lowest end position (Ych = 509), and the point (Xch, Ych) is the polar coordinate origin determined by the above-described straight line detection.

【0028】 C5.「ロ−ル角,パン移動量計算」C5(図8) ここでロ−ル角とは、図8の(a)に示すように、前記
検出した2直線の交わる角を2等分する直線(車両の縦
軸線)と撮影画面のY軸線とのなす角θrであり、テレ
ビカメラ6bの視野中心線と車両の縦軸線が、それらを
水平面に投影した場合になす角度、すなわちテレビカメ
ラ6bの視野中心線の、車両の縦軸線に対するロ−ル方
向のずれ角である。パン移動量Xpは、撮影画面上で
の、該画面を左右に2等分する縦軸線に対する、ボンネ
ット先端中央(前記2直線の交点)の横方向ずれ量であ
る。自車から進行方向前方の車両(先行車両)を見てこ
の車両との車間距離を算出する場合、ロ−ル角θrある
いはパン移動量Xpが大きいと、自車の進行方向から外
れた方向にある車両や物体を自車レ−ン(自車が走行し
ているレ−ン)上の車両等と誤認する確率が高くなる。
この確率を下げるためにはロ−ル角θrおよびパン移動
量Xpが共に零となるように、カメラ6bの取付角を調
整すればよいが、この調整はむつかしくわずらわしい。
したがってある程度のロ−ル角θrおよびパン移動量X
pは避けられない。そこでこの実施例では、「画面の校
正」Cにより、画面上でロ−ル角θrおよびパン移動量
Xpを零に調整するが、この調整代の算出のために、前
述のC1〜C4の処理を行ない、かつここで説明する
「ロ−ル角,パン移動量計算」C5を行なう。ロ−ル角
θrおよびパン移動量Xpの計算式を、図4のブロック
C5に接するブロックに示す。算出したロ−ル角θrは
ロ−ル角レジスタθrに、算出したパン移動量Xpはパ
ン移動量レジスタXpに格納する。
C5. "Calculation of Roll Angle and Pan Movement Amount" C5 (FIG. 8) Here, the roll angle is a straight line that bisects the intersecting angle of the two detected straight lines, as shown in FIG. It is an angle θr formed between the (vertical axis of the vehicle) and the Y-axis of the shooting screen, and the angle formed by the visual field center line of the television camera 6b and the vertical axis of the vehicle when they are projected on a horizontal plane, that is, the television camera 6b It is the angle of deviation of the center line of view from the longitudinal axis of the vehicle in the roll direction. The pan movement amount Xp is a lateral shift amount of the center of the bonnet tip (intersection point of the two straight lines) with respect to a vertical axis that bisects the screen on the shooting screen. When a vehicle ahead of the host vehicle in the traveling direction (leading vehicle) is calculated and the inter-vehicle distance to this vehicle is calculated, if the roll angle θr or the pan movement amount Xp is large, the vehicle is deviated from the traveling direction of the vehicle. There is a high probability that a certain vehicle or object is mistakenly recognized as a vehicle or the like on the own vehicle lane (the lane on which the own vehicle is traveling).
In order to reduce this probability, the mounting angle of the camera 6b may be adjusted so that the roll angle θr and the pan movement amount Xp are both zero, but this adjustment is difficult and troublesome.
Therefore, to some extent, the roll angle θr and the pan movement amount X
p is inevitable. Therefore, in this embodiment, the "angle of screen" C is used to adjust the roll angle θr and the pan movement amount Xp to zero on the screen. However, in order to calculate the adjustment allowance, the processes of C1 to C4 described above are performed. And "calculate roll angle and pan movement amount" C5 described here. The calculation formulas for the roll angle θr and the pan movement amount Xp are shown in the block in contact with the block C5 in FIG. The calculated roll angle θr is stored in the roll angle register θr, and the calculated pan movement amount Xp is stored in the pan movement amount register Xp.

【0029】C6〜8.「画像補正」C6〜8(図4) そして、次の、「補正画像メモリイニシャライズ」C
6,「画像回転平行移動」C7および「補間」C8を含
む「画像補正」により、イメ−ジメモリ5aの、入力デ
−タメモリ(1画面分の階調デ−タ記憶領域)の各画素
の階調デ−タのアドレス(図8の(b)のx,y)を、
ロ−ル角θrおよびパン移動量Xpに対応する回転およ
び平行移動を行なったアドレス(θr=0,Xp=0で
撮影画像を表わす画面座標系のアドレス;図8の(b)
のx’,y’)に変換して、入力デ−タメモリ対応の補
正画像メモリ(イメ−ジメモリ5aの、1画面分の階調
デ−タ記憶領域)に書込む(C6,C7)。
C6-8. "Image correction" C6 to 8 (Fig. 4) and the next "corrected image memory initialization" C
6. By "image correction" including "image rotation parallel movement" C7 and "interpolation" C8, the floor of each pixel of the input data memory (one screen of gradation data storage area) of the image memory 5a. The address of the key data (x, y in (b) of FIG. 8) is
The address that has been rotated and translated corresponding to the roll angle θr and the pan movement amount Xp (the address of the screen coordinate system that represents the captured image at θr = 0, Xp = 0; FIG. 8B).
X ', y') of the input data memory and write it in the corrected image memory corresponding to the input data memory (the gradation data storage area for one screen of the image memory 5a) (C6, C7).

【0030】 C6.「補正画像メモリイニシャライズ」C6(図9) このような回転および平行移動を行なうと、補正した画
面に階調デ−タが存在しない画素が生ずる。このような
画素を後に認識しうるように、「補正画像メモリイニシ
ャライズ」C6では、補正画像メモリの全アドレスに、
撮影画像デ−タ(階調デ−タ)には存在しない「−1」
を表わすデ−タを書込む。その処理の詳細を図9に示
す。
C6. "Corrected image memory initialization" C6 (FIG. 9) When such rotation and parallel movement are performed, pixels having no gradation data are generated in the corrected screen. In order to be able to recognize such pixels later, in the “correction image memory initialization” C6, all addresses of the correction image memory are
"-1" that does not exist in photographed image data (gradation data)
Write the data representing the. The details of the processing are shown in FIG.

【0031】 C7.「画像回転平行移動」C7(図10) この処理内容を図10に示す。これにおいては、入力デ
−タメモリのアドレス(x,y);x=0〜511,y
=0〜511、のそれぞれを、θr=0,Xp=0で撮
影画像を表わす画面座標系(補正画像メモリ)のアドレス
(x',y');x'=0〜511,y'=0〜511、に変
換して(22〜28,30〜33)、入力デ−タメモリ
のアドレス(x,y)の階調デ−タを、補正画像メモリ
の、該アドレス(x,y)を変換したアドレス(x',
y')に書込む(29)。これにより、補正画像メモリの
階調デ−タをCRT4bに表示すると、図8の(a)に
示すロ−ル角θrおよびパン移動量Xp共に実質上零
の、図16に示す如き画像が表示される。ただし、この
「画像回転平行移動」により、補正画像メモリ上には、
階調デ−タが存在しないアドレス(画素=空白画素)が
生じることがあり、その場合そこには、上述の「補正画
像メモリイニシャライズ」C6により、「−1」を示す
デ−タが残存していることになる。
C7. “Image rotation parallel movement” C7 (FIG. 10) This processing content is shown in FIG. In this case, the input data memory address (x, y); x = 0 to 511, y
= 0 to 511, θr = 0, Xp = 0, the address (x ', y') of the screen coordinate system (correction image memory) representing the captured image; x '= 0 to 511, y' = 0 To 511 (22 to 28, 30 to 33), and the gradation data at the address (x, y) of the input data memory is converted to the address (x, y) of the corrected image memory. Address (x ',
y ') (29). As a result, when the gradation data of the corrected image memory is displayed on the CRT 4b, an image as shown in FIG. 16 in which both the roll angle θr and the pan movement amount Xp shown in FIG. 8A are substantially zero is displayed. To be done. However, due to this "image rotation parallel movement", on the corrected image memory,
An address (pixel = blank pixel) where no gradation data exists may occur, in which case data indicating "-1" remains due to the "corrected image memory initialization" C6 described above. Will be.

【0032】 C8.「補間」C8(図11のa&図12) 「補間」C8では、階調デ−タが存在しない画素に、そ
の周りの4画素の階調デ−タの平均値を割り当てる。周
り4画素のいずれかが空白画素であると、この割り当て
はしない。この「補間」C8の内容を図11の(a)お
よび図12に示す。これにおいては、補正画像メモリの
アドレス(画素)を順次に指定して、指定した画素(注
目画素)が空白画素(メモリデ−タが「−1」を示すも
の)であるかをチェックして(36)、注目画素が空白
画素であると、図11の(b)に示すように、その左隣
りの画素ロ,右隣りの画素ハ,上側の画素イおよび下側
の画素ニに階調デ−タがあるかをこの順にチェックし、
これら4個の画素の1つでも空白画素であるとそこで、
該注目画素に対する処理は終了(空白画素のまま放置)
し、注目画素を次に移す(39−42,42−46,4
6−50,50−54)。前記4画素を1つづつ階調デ
−タがあるかチェックしたとき、階調デ−タがあるとそ
れを累算レジスタIsの内容に加算し、得た和を累算レ
ジスタIsに更新メモリし(40,44,48,5
2)、回数レジスタNsの内容を1インクレメントする
(41,45,49,53)。前記4個の画素のすべて
についてこれを終了すると、これらの画素の階調デ−タ
の平均値Ic(x,y)を算出して、注目画素にメモリ
する(54,55)。
C8. "Interpolation" C8 (a in FIG. 11 & FIG. 12) In "interpolation" C8, the average value of the gradation data of the four pixels surrounding the gradation data is assigned to the pixel having no gradation data. If any of the surrounding four pixels is a blank pixel, this allocation is not performed. The contents of this "interpolation" C8 are shown in FIG. 11 (a) and FIG. In this case, the addresses (pixels) of the corrected image memory are sequentially designated, and it is checked whether or not the designated pixel (pixel of interest) is a blank pixel (memory data indicates "-1") ( 36), if the pixel of interest is a blank pixel, as shown in (b) of FIG. -Check for data in this order,
If even one of these four pixels is a blank pixel,
Processing for the pixel of interest ends (leave blank pixel as is)
Then, the pixel of interest is moved to the next (39-42, 42-46, 4
6-50, 50-54). When it is checked whether each of the four pixels has gradation data, if there is gradation data, it is added to the contents of the accumulation register Is, and the obtained sum is updated in the accumulation register Is. Shi (40,44,48,5
2) The content of the frequency register Ns is incremented by 1 (41, 45, 49, 53). When this is completed for all of the four pixels, the average value Ic (x, y) of the gradation data of these pixels is calculated and stored in the target pixel (54, 55).

【0033】以上で、「画面の校正」C(図3)を終了
し、CPU1は次に「ウィンドウ2−1内の車両検出」
DET1を実行する。このDET1ではまず「自車レ−
ン検出」Dを実行する。
With the above, the "screen calibration" C (FIG. 3) is completed, and the CPU 1 next performs "vehicle detection in the window 2-1".
Execute DET1. In this DET1, first "
Detection ”D.

【0034】D.「自車レ−ン検出」D(図13) この内容を図13に示す。まず「特徴点検出ウィンドウ
2−1セット」D1を実行する。
D. "Own vehicle lane detection" D (Fig. 13) This content is shown in Fig. 13. First, the "feature point detection window 2-1 set" D1 is executed.

【0035】D1.「特徴点検出ウィンドウ2−1セッ
ト」D1(図14) この内容は、前述の「特徴点検出ウィンドウ1セット」
C1(図5)と類似であるが、ウィンドウ2−1のサイ
ズと位置がウィンドウ1とは異なり、しかも、ウィンド
ウ2−1を適用するメモリは補正画像メモリである。図
14および図16に示すように、ウィンドウ2−1は、
ウィンドウ1の上側に設定される。
D1. "Feature point detection window 2-1 set" D1 (Fig. 14)
Similar to C1 (FIG. 5), but the size and position of window 2-1 is different from window 1, and the memory to which window 2-1 is applied is a corrected image memory. As shown in FIGS. 14 and 16, the window 2-1 is
It is set on the upper side of the window 1.

【0036】D2.「特徴点検出(UP)」D2 ウィンドウ2−1を設定すると、補正画像メモリ上の該
ウィンドウ2−1内の特徴点を検出する。この内容は前
述の「特徴点検出(UP)」C2と同様であり、「特徴
点検出(UP)」D2でも特徴点を表わす「1」情報
は、2値デ−タテ−ブルE(Xs,Ys)に書込む。た
だし、検出領域がウィンドウ2−1である点、および、
処理対象デ−タが補正画像メモリ上のデ−タである点、
が異なる。 D3.「左右白線検出」D3(図15) ここでも前述の「ボンネット検出」C3と類似の処理
で、自車レ−ンの右端白線を近似する直線および左端白
線を近似する直線を検出する。ただし、ウィンドウ2−
1がウィンドウ1とサイズおよび位置が異なるので、極
座標原点が異なる(図16)。また、ウィンドウ2−1
は左,右に2分割しないので、左,右端白線の粗検出を
行なう第1回のハフ変換67で、度数最大点と次に大き
い点の2点を検出する点が異なる。先の「ボンネット検
出」C3では、「直線当てはめ」13R,13Lの内容
の詳細な説明を省略しているので、ここで、「直線当て
はめ」63の内容を、詳細に説明する。
D2. "Feature point detection (UP)" D2 When the window 2-1 is set, the feature point in the window 2-1 on the corrected image memory is detected. This content is the same as the above-mentioned "feature point detection (UP)" C2, and the "1" information representing the feature point also in the "feature point detection (UP)" D2 is the binary data table E (Xs, Write in Ys). However, the detection area is the window 2-1 and
That the processing target data is the data on the corrected image memory,
Is different. D3. "Left and Right White Line Detection" D3 (FIG. 15) Here, similar processing to the above-mentioned "bonnet detection" C3 is performed to detect a straight line approximating the right end white line and a straight line approximating the left end white line of the own vehicle lane. However, window 2-
1 differs from window 1 in size and position, so the polar origin is different (FIG. 16). Also, window 2-1
Is not divided into two parts, left and right, and is different in that two points, the maximum frequency point and the next largest point, are detected in the first Hough transform 67 that roughly detects the left and right end white lines. In the above-mentioned "bonnet detection" C3, the detailed description of the contents of the "straight line fitting" 13R and 13L is omitted. Therefore, the contents of the "straight line fitting" 63 will be described in detail here.

【0037】 63.「直線当てはめ」63(図17&図18) この内容を図17および図18に示す。なお、「直線当
てはめ」63は、ウィンドウ2−1の全体に対して適用
される点に注意されたい。ここではまず、2値デ−タテ
−ブルE(Xs,Ys)上の特徴点をρ−θ極座標系に
変換してこの座標系の各点(r,t)の曲線が通る度数
カウント値を書込む、イメ−ジメモリ5aのある領域に
割り当てたデ−タテ−ブルHGn(r,t)、ここでは
n=1、のデ−タをクリアする(図17の65;詳細は
図19)。次にハフ変換パラメ−タ(変換領域およびハ
フ変換密度)を設定し(図17の66)、第1回のハフ
変換(HG1)を行なう(図17の67;詳細は図2
0)。
63. "Straight line fit" 63 (Figs. 17 & 18) This content is shown in Figs. 17 and 18. Note that the “straight line fit” 63 is applied to the entire window 2-1. Here, first, the characteristic points on the binary data table E (Xs, Ys) are converted into a ρ-θ polar coordinate system, and the frequency count value that the curve of each point (r, t) of this coordinate system passes The data of the data table HGn (r, t) assigned to a certain area of the image memory 5a to be written, where n = 1 is cleared (65 in FIG. 17; details are shown in FIG. 19). Next, Hough transform parameters (transformation area and Hough transform density) are set (66 in FIG. 17), and the first Hough transform (HG1) is performed (67 in FIG. 17; details are shown in FIG. 2).
0).

【0038】「ハフ変換(HG1)」67(図20) 図20を参照する。これにおいては、2値デ−タテ−ブ
ルE(Xs,Ys)の、補正画像メモリ対応の一画面の
中のウィンドウ2−1対応領域、すなわち始点が(51
1,350)、終点が(0,250)の領域、に特徴点
(「1」情報)があるかをチェックする(87〜89,
95〜98)。特徴点がある毎に、該点を、X−Y座標
上で原点が(Xch=255,Ych=350)、θが
0〜πの範囲、かつ、θの単位が(π/2)×(1/3
2)の極座標ρ−θ上の位置(r,t)、t=0〜3
1、rは図20のステップ91のブロック中に示す演算
式で算出される値、に変換し、データテーブルHGn
(ここではn=1)の、位置(r,t)対応のアドレス
のデータを1インクレメントする(90〜94)。前に
説明したように、X−Y座標上の一点は極座標ρ−θに
変換すると極座標ρ−θ上では曲線となるので、前記変
換された位置(r,t)は、t=0〜31のそれぞれに
対応する32個(それらの連なりが曲線)となる。デー
タテーブルHGnの、これらの位置(r,t)に割り当
てたアドレスのデータが1インクレメントされるので、
各アドレスのデータは、X−Y座標上の特徴点それぞれ
の、ρ−θ座標上の曲線が通る度数を表わすことにな
る。
"Hough Transform (HG1)" 67 (FIG. 20) Referring to FIG. In this case, the area corresponding to the window 2-1 in the one screen corresponding to the corrected image memory of the binary data table E (Xs, Ys), that is, the starting point is (51
It is checked whether there is a feature point (“1” information) in the area whose end point is (0,250) (1,350) (87 to 89,
95-98). Every time there is a characteristic point, the origin is (Xch = 255, Ych = 350) on the XY coordinates, θ is in the range of 0 to π, and the unit of θ is (π / 2) × ( 1/3
Position (r, t) on the polar coordinate ρ-θ of 2), t = 0 to 3
20, r is converted into a value calculated by the arithmetic expression shown in the block of step 91 of FIG.
The data of the address (n = 1 in this case) corresponding to the position (r, t) is incremented by 1 (90 to 94). As described above, when one point on the XY coordinate is converted into the polar coordinate ρ-θ, it becomes a curve on the polar coordinate ρ-θ, and thus the converted position (r, t) is t = 0 to 31. 32 (corresponding to a curve) corresponding to each of the above. Since the data of the addresses assigned to these positions (r, t) in the data table HGn is incremented by 1,
The data at each address represents the frequency at which the characteristic point on the XY coordinates passes through the curve on the ρ-θ coordinates.

【0039】図20のステップ91は、 r={(Xs−Xch)・cos〔(t・(Te−Ts)/Td)+Ts〕+ (Ych−Ys)・sin〔(t・(Te−Ts)/Td)+Ts〕−Rs}×Rd/(Re−Rs)・・・(1) を算出して、算出値rをレジスタrに格納することを意
味する。この(1)式を変形すると次の(1a)式となる。
In step 91 of FIG. 20, r = {(Xs-Xch) .cos [(t. (Te-Ts) / Td) + Ts] + (Ych-Ys) .sin [(t. (Te-Ts ) / Td) + Ts] −Rs} × Rd / (Re−Rs) (1) is calculated and the calculated value r is stored in the register r. When this equation (1) is modified, it becomes the following equation (1a).

【0040】 r/Rd/(Re−Rs)+Rs= (Xs−Xch)・cos〔(t・(Te−Ts)/Td)+Ts〕 +(Ych−Ys)・sin〔(t・(Te−Ts)/Td)+Ts〕 ・・・(1a) これは次の(1b)式で表わすことができる。R / Rd / (Re-Rs) + Rs = (Xs-Xch) .cos [(t. (Te-Ts) / Td) + Ts] + (Ych-Ys) .sin [(t. (Te- Ts) / Td) + Ts] (1a) This can be expressed by the following equation (1b).

【0041】 r/d+c= (Xs−Xch)・cos(a・t+b) +(Ych−Ys)・sin(a・t+b) ・・・(1b) ここで、a=(Te−Ts)/Td,b=Ts,c=Rs,d=Rd/
(Re−Rs)である。
R / d + c = (Xs−Xch) · cos (a · t + b) + (Ych−Ys) · sin (a · t + b) (1b) where a = (Te−Ts) / Td , B = Ts, c = Rs, d = Rd /
(Re-Rs).

【0042】この(1)式において、(Xch,Ych)は、極座標
原点のX−Y座標上の位置であり、ここでは Xch=255、Ych=350 である。Xsは特徴点の、X−Y座標上のX座標値、Y
sはY座標値である。
In the equation (1), (Xch, Ych) is the position on the XY coordinate of the polar coordinate origin, and here Xch = 255 and Ych = 350. Xs is the X coordinate value of the feature point on the XY coordinate, Y
s is a Y coordinate value.

【0043】ここで、 θ=〔(t・(Te−Ts)/Td)+Ts〕 と表わすと、図15のステップ62Rと図17のステッ
プ66での設定により、 (Te−Ts)/Td=π/32、 Ts=0 であるので、 θ=t・π/32 =(π/32)t a=π/32,b=0,c=0,d=1/8 であり、t=0〜31であるので、θ=0,θ=π/3
2,θ=2π/32,θ=3π/32,・・・,31π
/32と、π/32を最小単位として32点のρ値rが
算出される。すなわちこの第1ハフ変換では、ウィンド
ウ2−1の領域の特徴点各点が、θがπ/32を最小単
位とし、かつ0以上π未満の範囲の極座標平面上の位置
(r,t)に変換される。
Here, if θ = [(t (Te-Ts) / Td) + Ts] is expressed, (Te-Ts) / Td = Since π / 32 and Ts = 0, θ = t · π / 32 = (π / 32) ta = π / 32, b = 0, c = 0, d = 1/8, and t = 0 .About.31, θ = 0, θ = π / 3
2, θ = 2π / 32, θ = 3π / 32, ..., 31π
/ 32 and π / 32 are the minimum units, and the ρ value r of 32 points is calculated. That is, in the first Hough transform, each of the feature points in the area of the window 2-1 is located at a position (r, t) on the polar coordinate plane in which θ has a minimum unit of π / 32 and is 0 or more and less than π. To be converted.

【0044】上記(1)式の、Rd/(Re−Rs)は、図15のス
テップ62Rと図17のステップ66での設定により、 Rd/(Re−Rs)=32/256 である。これは、θ=π/32をtの1単位としている
ので、すなわち、πを32分割しているので、これに対
応してρの範囲0〜256も同様に32分割するもので
ある。すなわちrの一単位は256/32である。
Rd / (Re-Rs) in the above equation (1) is Rd / (Re-Rs) = 32/256 according to the settings in step 62R of FIG. 15 and step 66 of FIG. This is because θ = π / 32 is one unit of t, that is, since π is divided into 32, correspondingly, the range 0 to 256 of ρ is also divided into 32. That is, one unit of r is 256/32.

【0045】要約すると、「ハフ変換(HG1)」67
では、(1)式は具体的には次の(1-1)式である。
In summary, "Hough transform (HG1)" 67
Then, the expression (1) is specifically the following expression (1-1).

【0046】 r={(Xs−255)・cos〔(t・(π/32)〕+(350−Ys)・sin〔(t・(π/32)〕}×1/ 8 ・・・(1-1) これを(1b)式の形に変形して、 r/d1+c1= (Xs−Xch)・cos(a1・t+b1) +(Ych−Ys)・sin(a1・t+b1) ・・・(1-1b) で表わすと、a1=π/32,b1=0,c1=0,d1
1/8 である。
R = {(Xs−255) · cos [(t · (π / 32)] + (350−Ys) · sin [(t · (π / 32)]} × 1/8 ( 1-1) Transforming this into the form of equation (1b), r / d 1 + c 1 = (Xs−Xch) ・ cos (a 1・ t + b 1 ) + (Ych−Ys) ・ sin (a 1・t + b 1 ) ... (1-1b), a 1 = π / 32, b 1 = 0, c 1 = 0, d 1 =
It is 1/8.

【0047】このように第1ハフ変換では、ρ−θ極座
標のθの単位をπ/32と粗いものとし、しかもρの単
位を256/32と粗いものとしているので、1つの特
徴点(Xs,Ys)をρ−θ極座標に変換する演算回数
(tの切換回数32すなわち(1)式の演算を行なう回数)
が極く少く、rデータビット数が少く、特徴点各点をρ
−θ極座標へ変換する速度が速く、かつ、度数カウント
処理速度が速い。
As described above, in the first Hough transform, the unit of θ in the ρ-θ polar coordinate is coarse as π / 32, and the unit of ρ is coarse as 256/32, so that one feature point (Xs , Ys) is converted to ρ-θ polar coordinates (the number of times t is switched 32, that is, the number of times the formula (1) is calculated).
Is extremely small, the number of r data bits is small, and each feature point is ρ
-The conversion speed to polar coordinates is fast, and the frequency count processing speed is fast.

【0048】図17を再度参照すると、CPU1は、第
1回のハフ変換である「ハフ変換(HG1)」67を終
了すると、「最大点探索(HG1)」68を実行する。
その内容を図21に示す。
Referring to FIG. 17 again, when the CPU 1 completes the first Hough transform "Hough transform (HG1)" 67, it executes "Maximum point search (HG1)" 68.
The contents are shown in FIG.

【0049】「最大点探索(HG1)」68(図21) 前述のデータテーブルHGn(ここではn=1)の各ア
ドレス(r,t)のデータ(度数)を順次に読出して
(図21の99,100,105〜108)、読出した
データをレジスタGmのデータと比較して、読出しデー
タの方が大きいと読出しデータをレジスタGmに更新メ
モリし、かつこの時読出しデータのアドレス(r,t)
のrはレジスタrm11に、tはレジスタtm11に更新メモ
リする(101〜104)。読出しデ−タがGmより小
さいと、読出しデ−タをレジスタGmnのデ-タと比較し
て、読出しデータの方が大きいと読出しデータをレジス
タGmnに更新メモリし、かつこの時読出しデータのアド
レス(r,t)のrはレジスタrm12に、tはレジスタ
tm12に更新メモリする(102A〜102C)。デー
タテーブルHGnのすべてのアドレスに対してこのよう
な処理を終了すると、レジスタGmにはデータテーブル
HGnにある度数の最大値が、レジスタrm11,tm11に
は該最大値があるアドレス(rm11,tm11)が格納され
ていることになる。レジスタGmnにはデータテーブルH
Gnにある度数の最大値の次に大きい値が、レジスタr
m12,tm12には該最大値があるアドレス(rm12,tm1
2)が格納されていることになる。
"Maximum point search (HG1)" 68 (FIG. 21) The data (frequency) of each address (r, t) of the above-mentioned data table HGn (here, n = 1) is sequentially read (see FIG. 21). 99, 100, 105-108), the read data is compared with the data in the register Gm, and if the read data is larger, the read data is updated and stored in the register Gm, and at this time, the read data address (r, t )
Of r is updated in the register rm11 and t is updated in the register tm11 (101 to 104). If the read data is smaller than Gm, the read data is compared with the data in the register Gmn, and if the read data is larger, the read data is updated in the register Gmn and the address of the read data is read at this time. R of (r, t) is updated and stored in the register rm12 and t in the register tm12 (102A to 102C). When such processing is completed for all the addresses of the data table HGn, the register Gm has the maximum value of the frequency in the data table HGn, and the registers rm11 and tm11 have the maximum value (rm11, tm11). Will be stored. The data table H is stored in the register Gmn.
The next largest value of the frequency in Gn is the register r.
Addresses (rm12, tm1) that have the maximum value in m12, tm12
2) is stored.

【0050】図17を再度参照すると、CPU1は、
「最大点探索(HG1)」68を終了すると、r−t極
座標系で表現された前記アドレス(rm11,tm11)を、
X−Y座標系画面に対応するρ−θ極座標系アドレス
(Rm11,Tm11)に変換する(69R)。ここでは、 Rm11=rm11・(Re1−Rs1)/Rd1 ・・・(2) Tm11=tm11・(Te1−Ts1)/Td1 ・・・(3) を算出して、算出したRm11をレジスタRm11に、算出し
たTm11をレジスタTm11に格納する。同様に、アドレス
(rm12,tm12)を、X−Y座標系画面に対応するρ−
θ極座標系アドレス(Rm12,Tm12)に変換する(69
L)。図15のステップ62および図17のステップ6
6での設定により、ここでは、 (Re1−Rs1)=256 Rd1=32 (Te1−Ts1)=π Td1=32 であり、(2)式は、Rm11=8・rm11 を意味し、(3)式
は、Tm11=(π/32)・tm11を意味する。アドレス(Rm
11,Tm11),(Rm12,Tm12)をX−Y座標系への変
換式に代入すると、補正画像メモリの画像データを表示
する画面上の、ウィンドウ2−1の領域にある、2直線
(低密度ハフ変換67により検出した直線:以下第1回
検出の直線と称す)を示す式が得られる。
Referring again to FIG. 17, the CPU 1
When the "maximum point search (HG1)" 68 is completed, the address (rm11, tm11) expressed in the rt polar coordinate system is changed to
It is converted to ρ-θ polar coordinate system address (Rm11, Tm11) corresponding to the X-Y coordinate system screen (69R). Here, Rm11 = rm11. (Re1-Rs1) / Rd1 (2) Tm11 = tm11. (Te1-Ts1) / Td1 (3) is calculated, and the calculated Rm11 is stored in the register Rm11. The calculated Tm11 is stored in the register Tm11. Similarly, the address (rm12, tm12) is set to ρ− corresponding to the screen of the XY coordinate system.
Convert to θ polar coordinate system address (Rm12, Tm12) (69
L). Step 62 of FIG. 15 and Step 6 of FIG.
According to the setting in 6, here, (Re1−Rs1) = 256 Rd1 = 32 (Te1−Ts1) = π Td1 = 32, and the expression (2) means Rm11 = 8 · rm11, and (3) The formula means Tm11 = (π / 32) · tm11. Address (Rm
Substituting (11, Tm11), (Rm12, Tm12) into the conversion formula to the XY coordinate system, the two straight lines (low line) in the area of the window 2-1 on the screen displaying the image data of the corrected image memory A straight line detected by the density Hough transform 67: hereinafter referred to as a first detection straight line) is obtained.

【0051】次にCPU1は、イメージメモリ5aのあ
る領域に割り当てたデータテーブルHGn(r,t)、
ここではn=2、のデータをクリアする(図17の70
R)。次に第2回のハフ変換である「ハフ変換(HG
2)」72の変換パラメータを設定する(図17の71
R)。前述の第1回のハフ変換ではθの範囲Ts〜Te
を0〜π、単位(Te−Ts)/Tdをπ/32とし、
ρの範囲Rs〜Reは0〜256、単位Rd/(Re−
Rs)を1/8としたが、ここでは、θおよびρの範囲
を、前記(Rm11,Tm11)を中心とする小範囲に設定
し、θおよびρの単位も小さく設定する。具体的には、 Rs=8(rm11−2) Re=8(rm11+2) Rd=32 Ts=(π/32)(tm11−2) Te=(π/32)(tm11+2) Td=32 を設定する。なお、rm11=Rm11/8,tm1=Tm11/
(π/32)である。そして「ハフ変換(HG2)」72R
を行なう。
Next, the CPU 1 assigns a data table HGn (r, t) to a certain area of the image memory 5a,
Here, the data of n = 2 is cleared (70 in FIG. 17).
R). Next, the second Hough transform, "Hough transform (HG
2) ”72 conversion parameters are set (71 in FIG. 17).
R). In the above-mentioned first Hough transform, the range of θ from Ts to Te
Is 0 to π, the unit (Te-Ts) / Td is π / 32,
The range R of Rs to Re is 0 to 256, and the unit Rd / (Re-
Although Rs) is set to 1/8, here, the range of θ and ρ is set to a small range centered on the above (Rm11, Tm11), and the units of θ and ρ are set small. Specifically, Rs = 8 (rm11-2) Re = 8 (rm11 + 2) Rd = 32 Ts = (π / 32) (tm11-2) Te = (π / 32) (tm11 + 2) Td = 32 are set. . Note that rm11 = Rm11 / 8, tm1 = Tm11 /
(π / 32). And "Hough conversion (HG2)" 72R
Do.

【0052】「ハフ変換(HG2)」72R この「ハフ変換(HG2)」72Rの内容は、図20を
参照して説明した「ハフ変換(HG1)」67と同様で
あるが、図20中で、n=2である点と、ブロック91
内の演算式(前述の(1)式)の内容が異なる。ステップ7
1Rで設定したパラメータに基づいた、図20のステッ
プ91の演算式すなわち前記(1)式は具体的には次の(1-
2)式となる。
"Hough Transform (HG2)" 72R The content of this "Hough Transform (HG2)" 72R is the same as that of the "Hough Transform (HG1)" 67 described with reference to FIG. , N = 2, and block 91
The contents of the arithmetic expression ((1) above) are different. Step 7
Based on the parameters set in 1R, the arithmetic expression of step 91 of FIG. 20, that is, the above equation (1) is
It becomes the formula 2).

【0053】 r={(Xs−255)・cos〔t・(π/256)+π(tm11−2)/32〕+ (350−Ys)・sin〔t・(π/256)+π(tm11−2)/32〕−8(rm11−2)}×(1/1 ) ・・・(1-2) これを(1b)式の形に変形して、 r/d2+c2= (Xs−Xch)・cos(a2・t+b2) +(Ych−Ys)・sin(a2・t+b2) ・・・(1-2b) で表わすと、前述の第1回の変換で、 a1=(π/32), b1=0, c1=0,
1=1/8 に対して、 a2=(π/256),b2=π(tm11−2)/32,c2=8(rm11
−2),d2=1 となる。
R = {(Xs−255) · cos [t · (π / 256) + π (tm11-2) / 32] + (350−Ys) · sin [t · (π / 256) + π (tm11− 2) / 32] −8 (rm11−2)} × (1/1) ・ ・ ・ (1-2) By transforming this into the form of equation (1b), r / d 2 + c 2 = (Xs− Xch) · cos (a 2 · t + b 2 ) + (Ych−Ys) · sin (a 2 · t + b 2 ) ... (1-2b) is the first conversion, and a 1 = (π / 32), b 1 = 0, c 1 = 0,
For d 1 = 1/8, a 2 = (π / 256), b 2 = π (tm11-2) / 32, c 2 = 8 (rm11
−2), d 2 = 1.

【0054】t=0〜31であるので、 θ= π(tm11−2)/32, θ= (π/256)+π(tm11−2)/32, θ= 2(π/256)+π(tm11−2)/32, θ= 3(π/256)+π(tm11−2)/32, ・ ・ ・ θ=31(π/256)+π(tm11−2)/32, と、(π/256)を最小単位として32点のθに対応するρ
値rが算出される。すなわちこの第2ハフ変換では、ウ
ィンドウ2−1の領域の特徴点各点が、θが(π/256)を
最小単位(tの1単位がπ/256)とし、かつθ=π(tm
11−2)/32 以上θ=31(π/256)+π(tm11−2)/32 以下
の範囲の極座標平面上の位置(r,t)に変換される。
ρの範囲は8(rm11−2)以上8(rm11+2)以下
で、ρの単位はこの範囲を32分割するものである。す
なわちrの一単位は32/32=(1/1)=1である。し
たがって、第2ハフ変換(72R)はウィンドウ2−1
の特徴点を、第1ハフ変換(67)よりも、狭い範囲か
つ高い密度の極座標に変換するものである。特徴点の1
つの極座標変換では、この第2ハフ変換(72R)でも
t=0〜31、すなわち32回の演算を行なうので、第
1ハフ変換(67)と処理時間は同程度である。1つの
特徴点(Xs,Ys)をρ−θ極座標に変換する演算回
数が極く少く、rデータビット数が少く、特徴点各点を
ρ−θ極座標へ変換する速度が速く、かつ、度数カウン
ト処理速度が速い。
Since t = 0 to 31, θ = π (tm11-2) / 32, θ = (π / 256) + π (tm11-2) / 32, θ = 2 (π / 256) + π (tm11 −2) / 32, θ = 3 (π / 256) + π (tm11−2) / 32, ··· θ = 31 (π / 256) + π (tm11−2) / 32, and (π / 256) Ρ corresponding to 32 points θ with the minimum unit
The value r is calculated. That is, in the second Hough transform, each of the feature points in the area of the window 2-1 has θ of (π / 256) as the minimum unit (one unit of t is π / 256), and θ = π (tm
It is converted to a position (r, t) on the polar coordinate plane within the range of 11-2) / 32 or more and θ = 31 (π / 256) + π (tm11-2) / 32 or less.
The range of ρ is 8 (rm11-2) or more and 8 (rm11 + 2) or less, and the unit of ρ is to divide this range into 32 parts. That is, one unit of r is 32/32 = (1/1) = 1. Therefore, the second Hough transform (72R) is the window 2-1.
Is converted into polar coordinates having a narrower range and higher density than the first Hough transform (67). Feature point 1
In one polar coordinate conversion, the second Hough transform (72R) also performs t = 0 to 31, that is, 32 times of calculation, so that the processing time is approximately the same as that of the first Hough transform (67). The number of operations for converting one feature point (Xs, Ys) to ρ-θ polar coordinates is extremely small, the number of r data bits is small, the speed of converting each feature point to ρ-θ polar coordinates is high, and the frequency is The count processing speed is fast.

【0055】図17を再度参照すると、CPU1は、第
2回のハフ変換である「ハフ変換(HG2)」72Rを
終了すると、「最大点探索(HG2)」73Rを実行す
る。その内容は前述の、「最大点探索(HG3)」68
と同様である。ただしn=2である。この処理を終了す
ると、レジスタGmにはデータテーブルHGnにある度
数の最大値が、レジスタrm2,tm2には該最大値がある
アドレス(rm2,tm2)が格納されていることになる。
Referring to FIG. 17 again, when the CPU 1 completes the second Hough transform "Hough transform (HG2)" 72R, it executes "Maximum point search (HG2)" 73R. The contents are the above-mentioned “maximum point search (HG3)” 68.
Is the same as. However, n = 2. When this process ends, the maximum value of the frequency in the data table HGn is stored in the register Gm, and the address (rm2, tm2) having the maximum value is stored in the registers rm2 and tm2.

【0056】図17を再度参照すると、CPU1は、
「最大点探索(HG2)」73Rを終了すると、r−t
極座標系で表現された前記アドレス(rm2,tm2)を、
X−Y座標系画面に対応するρ−θ極座標系アドレス
(Rm2,Tm2)に変換する(74R)。演算式は、 Rm2=rm2・(Re2−Rs2)/Rd2+Rs2 ・・・(4) Tm2=tm2・(Te2−Ts2)/Td2+Ts2 ・・・(5) である。算出したRm2をレジスタRm2に、算出したTm2
をレジスタTm2に格納する(74R)。図17のステッ
プ71Rでの設定により、ここでは、 (Re2−Rs2)=32 Rd2=32 (Te2−Ts2)=π/8 Td2=32 であり、(4)式は、具体的には、 Rm2=rm2+8rm11−16 ・・・(4-1) であり、(5)式は、具体的には、 Tm2=tm2・(π/256)+(π/32)・(tm11−2) ・・・(5-1) を意味する。アドレス(Rm2,Tm2)をX−Y座標系へ
の変換式に代入すると、補正画像メモリの画像データを
表示する画面上の、ウィンドウ2の領域にある、1つの
直線(中密度ハフ変換72Rにより検出した直線:以下
第2回検出の直線と称す)を示す式が得られる。
Referring again to FIG. 17, the CPU 1
When the "maximum point search (HG2)" 73R ends, r-t
The address (rm2, tm2) expressed in polar coordinate system,
It is converted into ρ-θ polar coordinate system address (Rm2, Tm2) corresponding to the XY coordinate system screen (74R). The calculation formula is Rm2 = rm2 (Re2-Rs2) / Rd2 + Rs2 (4) Tm2 = tm2 (Te2-Ts2) / Td2 + Ts2 (5) The calculated Rm2 is stored in the register Rm2 and the calculated Tm2 is stored.
Is stored in the register Tm2 (74R). According to the setting in step 71R of FIG. 17, here, (Re2-Rs2) = 32 Rd2 = 32 (Te2-Ts2) = π / 8 Td2 = 32, and the equation (4) is, specifically, Rm2 = Rm2 + 8rm11-16 (4-1), and the equation (5) is specifically expressed as follows: Tm2 = tm2 · (π / 256) + (π / 32) · (tm11-2) Means (5-1). By substituting the address (Rm2, Tm2) into the conversion formula to the XY coordinate system, one straight line in the area of the window 2 on the screen displaying the image data of the corrected image memory (with the medium density Hough transform 72R The detected straight line: hereinafter referred to as the second detected straight line) is obtained.

【0057】次にCPU1は、イメージメモリ5aのあ
る領域に割り当てたデータテーブルHGn(r,t)、
ここではn=3、のデータをクリアする(図17の75
R)。次に第3回のハフ変換である「ハフ変換(HG
3)」77Rの変換パラメータを設定する(図18の7
6R)。ここでは、θおよびρの範囲を、前記「ハフ変
換(HG2)」72Rの場合よりも、前記(Rm2,Tm
2)を中心とする更に小さい範囲に設定し、θおよびρ
の単位も小さく設定する(76R)。具体的には、 Rs=rm2+8rm11−18 Re=rm2+8rm11−14 Rd=32 Ts=(π/256)tm2+(π/32)tm1−9π/128 Te=(π/256)tm2+(π/32)tm1−7π/128 Td=32 を設定する。なお、rm2,tm2は、Rm2,Tm2に対して
上記(4-1)式,(5-1)式で規定されるものである。そして
「ハフ変換(HG3)」77Rを行なう。
Next, the CPU 1 assigns a data table HGn (r, t) to a certain area of the image memory 5a,
Here, the data of n = 3 is cleared (75 in FIG. 17).
R). Next, the third Hough transform, "Hough Transform (HG
3) ”77R conversion parameter is set (7 in FIG. 18).
6R). Here, the range of θ and ρ is (Rm2, Tm
2) centered on a smaller range, and θ and ρ
The unit of is also set small (76R). Specifically, Rs = rm2 + 8rm11-18 Re = rm2 + 8rm11-14 Rd = 32 Ts = (π / 256) tm2 + (π / 32) tm1-9π / 128 Te = (π / 256) tm2 + (π / 32) tm1 Set -7π / 128 Td = 32. It should be noted that rm2 and tm2 are defined by the above equations (4-1) and (5-1) with respect to Rm2 and Tm2. Then, "Hough conversion (HG3)" 77R is performed.

【0058】「ハフ変換(HG3)」77R この「ハフ変換(HG3)」77Rの内容は、前述の
「ハフ変換(HG2)」72Rと同様であるが、図20
中に示すハフ変換処理で、n=3である点と、図20中
のブロック91内の演算式(前述の(1)式)の内容が異な
る。ステップ76Rで設定したパラメータに基づいた、
図20のステップ91の演算式すなわち前記(1)式は、
この「ハフ変換(HG3)」77Rでは、具体的には次
の(1-3)式となる。
"Hough Transform (HG3)" 77R The content of this "Hough Transform (HG3)" 77R is the same as that of the aforementioned "Hough Transform (HG2)" 72R, but FIG.
In the Hough transform process shown therein, the point that n = 3 is different from the content of the arithmetic expression (the above-mentioned expression (1)) in the block 91 in FIG. Based on the parameters set in step 76R,
The arithmetic expression of step 91 of FIG. 20, that is, the expression (1) is
In this “Hough transform (HG3)” 77R, specifically, the following equation (1-3) is obtained.

【0059】 r={(Xs−255)・cos〔t・(π/2048)+(π/256)tm2+(π/32)tm11−9π/128 〕 +(350−Ys)・sin〔t・(π/2048)+(π/256)tm2+(π/32)tm11−9π/128 〕 −rm2−8rm11+18}×8 ・・・(1−3) これを(1b)式の形に変形して、 r/d3+c3= (Xs−Xch)・cos(a3・t+b3) +(Ych−Ys)・sin(a3・t+b3) ・・・(1-3b) で表わすと、前述の第1回および第2回の変換で、 a1=(π/32), b1=0, c1=0,
1=1/8 a2=(π/256),b2=π(tm11−2)/32,c2=8(rm11
−2),d2=1 に対して、 a3=(π/2048),b3=(π/256)tm2+(π/32)tm11−9
π/128, c3=rm2+8rm11−18,d3=8 となる。
R = {(Xs−255) · cos [t · (π / 2048) + (π / 256) tm2 + (π / 32) tm11−9π / 128] + (350−Ys) · sin [t · (π / 2048) + (π / 256) tm2 + (π / 32) tm11−9π / 128] −rm2−8rm11 + 18} × 8 ・ ・ ・ (1-3) Change this into the form of equation (1b). , expressed in r / d 3 + c 3 = (Xs-Xch) · cos (a 3 · t + b 3) + (Ych-Ys) · sin (a 3 · t + b 3) ··· (1-3b), above In the first and second conversions of, a 1 = (π / 32), b 1 = 0, c 1 = 0,
d 1 = 1/8 a 2 = (π / 256), b 2 = π (tm11-2) / 32, c 2 = 8 (rm11
−2), d 2 = 1 and a 3 = (π / 2048), b 3 = (π / 256) tm 2 + (π / 32) tm 11-9
π / 128, c 3 = rm2 + 8rm11-18, a d 3 = 8.

【0060】t=0〜31であるので、 θ= (π/256)tm2+(π/32)tm11−9π/128, θ= (π/2048)+(π/256)tm2+(π/32)tm11−9π/128, θ= 2(π/2048)+(π/256)tm2+(π/32)tm11−9π/128, θ= 3(π/2048)+(π/256)tm2+(π/32)tm11−9π/128, ・ ・ ・ θ=31(π/2048)+(π/256)tm2+(π/32)tm11−9π/128, と、(π/2048)を最小単位として32点のθ(t=0〜
31)に対応するρ値rが算出される。すなわちこの第
3ハフ変換では、ウィンドウ2−1の特徴点各点が、θ
が(π/2048)を最小単位(tの1単位がπ/2048)とし、
かつθ=(π/256)tm2+(π/32)tm11−9π/128以上 θ
=31(π/2048)+(π/256)tm2+(π/32)tm11−9π/128
以下 の範囲の極座標平面上の位置(r,t)に変換さ
れる。ρの範囲はRs=rm2+8rm11−18 以上 Re=r
m2+8rm11−14 以下で、ρの単位はこの範囲を32分
割するものである。すなわちrの一単位は4/32=(1
/8)である。したがって、第3ハフ変換(77R)はウ
ィンドウ2−1の特徴点を、第2ハフ変換(72R)よ
りも、更に狭い範囲かつ高い密度の極座標に変換するも
のである。特徴点の1つの極座標変換では、この第3ハ
フ変換(77R)でもt=0〜31であるので、32回
の演算を行なうので、第2ハフ変換(72R)と処理時
間は同程度である。1つの特徴点(Xs,Ys)をρ−
θ極座標に変換する演算回数が極く少く、rデータビッ
ト数が少く、特徴点各点をρ−θ極座標へ変換する速度
が速く、かつ、度数カウント処理速度が速い。
Since t = 0 to 31, θ = (π / 256) tm2 + (π / 32) tm11-9π / 128, θ = (π / 2048) + (π / 256) tm2 + (π / 32) tm11-9π / 128, θ = 2 (π / 2048) + (π / 256) tm2 + (π / 32) tm11-9π / 128, θ = 3 (π / 2048) + (π / 256) tm2 + (π / 32) tm11-9π / 128, ··· θ = 31 (π / 2048) + (π / 256) tm2 + (π / 32) tm11-9π / 128, and (π / 2048) as the minimum unit, 32 points Θ (t = 0-
31) is calculated corresponding to ρ value r. That is, in the third Hough transform, each feature point of the window 2-1 is
Is the minimum unit (1 unit of t is π / 2048),
And θ = (π / 256) tm2 + (π / 32) tm11-9π / 128 or more θ
= 31 (π / 2048) + (π / 256) tm2 + (π / 32) tm11-9π / 128
It is converted to the position (r, t) on the polar coordinate plane in the following range. The range of ρ is Rs = rm2 + 8rm11-18 or more Re = r
m2 + 8rm11-14 or less, and the unit of ρ divides this range into 32 parts. That is, one unit of r is 4/32 = (1
/ 8). Therefore, the third Hough transform (77R) transforms the feature points of the window 2-1 into polar coordinates having a narrower range and higher density than the second Hough transform (72R). In the polar coordinate conversion of one feature point, since t = 0 to 31 in this third Hough transform (77R), 32 times of calculations are performed, so that the processing time is similar to that of the second Hough transform (72R). . One feature point (Xs, Ys) is ρ−
The number of operations for converting to θ polar coordinates is extremely small, the number of r data bits is small, the speed of converting each feature point to ρ−θ polar coordinates is high, and the frequency count processing speed is high.

【0061】図18を参照すると、CPU1は、第3回
のハフ変換である「ハフ変換(HG3)」77Rを終了
すると、「最大点探索(HG3)」73Rを実行する。
その内容は前述の、「最大点探索(HG3)」68と同
様である。ただしn=3である。この処理を終了する
と、レジスタGmにはデータテーブルHGnにある度数
の最大値が、レジスタrm3,tm3には該最大値があるア
ドレス(rm3,tm3)が格納されていることになる。
Referring to FIG. 18, when the CPU 1 completes the third Hough transform "Hough transform (HG3)" 77R, it executes "Maximum point search (HG3)" 73R.
The content is the same as that of the “maximum point search (HG3)” 68 described above. However, n = 3. When this process is completed, the maximum value of the frequency in the data table HGn is stored in the register Gm, and the address (rm3, tm3) having the maximum value is stored in the registers rm3 and tm3.

【0062】図18を参照すると、CPU1は、「最大
点探索(HG3)」78Rを終了すると、r−t極座標
系で表現された前記アドレス(rm3,tm3)を、X−Y
座標系画面に対応するρ−θ極座標系アドレス(Rm3
1,Tm31)に変換する(79R)。演算式は、 Rm31=rm3・(Re3−Rs3)/Rd3+Rs3・・・(6) Tm31=Tm3・(Te3−Ts3)/Td3+Ts3・・・(7) である。算出したRm31をレジスタRm31に、算出したT
m31をレジスタTm31に格納する(79R)。図18のス
テップ76Rの設定により、ここでは、 (Re3−Rs3)=4 Rd3=32 (Te3−Ts3)=π/64 Td3=32 であり、(6)式は、具体的には、 Rm31=(1/8)・rm3+rm2+8rm11−18 ・・・(6-1) であり、(7)式は、具体的には、 Tm31=(π/64)・tm3+(π/256)tm2+(π/32)tm11−9π/128 ・・・(7-1) を意味する。アドレス(Rm31,Tm31)をX−Y座標系
への変換式に代入すると、補正画像メモリの画像データ
を表示する画面上の、ウィンドウ2-1の、1つの直線
(高密度ハフ変換77Rにより検出した直線:以下第3
回検出の直線と称す)を示す式が得られる。
Referring to FIG. 18, when the "maximum point search (HG3)" 78R is completed, the CPU 1 sets the address (rm3, tm3) expressed in the rt polar coordinate system to XY.
Ρ-θ polar coordinate system address (Rm3
1, Tm31) (79R). The calculation formula is Rm31 = rm3 (Re3-Rs3) / Rd3 + Rs3 (6) Tm31 = Tm3 (Te3-Ts3) / Td3 + Ts3 (7) The calculated Rm31 is stored in the register Rm31, and the calculated T
The m31 is stored in the register Tm31 (79R). By the setting of step 76R of FIG. 18, here, (Re3−Rs3) = 4 Rd3 = 32 (Te3−Ts3) = π / 64 Td3 = 32, and the equation (6) is, specifically, Rm31 = (1/8) · rm3 + rm2 + 8rm11−18 (6-1), specifically, the formula (7) is expressed as: Tm31 = (π / 64) · tm3 + (π / 256) tm2 + (π / 32 ) tm11-9π / 128 (7-1) is meant. By substituting the address (Rm31, Tm31) into the conversion formula to the XY coordinate system, one straight line (detected by the high-density Hough transform 77R) of the window 2-1 on the screen displaying the image data of the corrected image memory is detected. Straight line: third below
An equation showing a straight line of detection) is obtained.

【0063】以上でウィンドウ2−1内の、粗いハフ変
換(67)で検出した2直線(rm11,tm11)および(rm12,T
m12)の、第1直線(rm11,tm11)を検出したことになり、
この直線は、右端白線又は左端白線である。上述のステ
ップ70R〜79Lの処理を同様に第2直線(rm12,Tm1
2)に適用して、第2直線を精細に検出する(図18の7
0L〜79L)。
As described above, the two straight lines (rm11, tm11) and (rm12, T) detected by the rough Hough transform (67) in the window 2-1.
It means that the first straight line (rm11, tm11) of (m12) is detected,
This straight line is the right end white line or the left end white line. In the same manner as the above steps 70R to 79L, the second straight line (rm12, Tm1
2) to detect the second straight line finely (7 in FIG. 18).
0L-79L).

【0064】以上で図15に示す「直線当てはめ」63
(内容は図17&図18)を終了したことになり、ウィ
ンドウ2−1領域にある画像中の2直線(最も代表的な
直線と、次に代表的な直線)を表わす直線式を得たこと
になる。ウィンドウ2−1は、自車レーンの、自車直近
領域の左,右端の白線を検出するに最も適した領域に設
定されており、ウィンドウ2−1領域に右端白線および
左端白線の像があると、第3回検出の直線はこの白線を
近似する直線である確率が高い。したがって、「直線当
てはめ」63は、自車レーンの左,右端白線の検出であ
る。
As described above, the "straight line fitting" 63 shown in FIG.
(Contents: Fig. 17 & Fig. 18) has been completed, and we have obtained a linear equation that expresses two straight lines (the most representative straight line and the next representative straight line) in the image in the window 2-1 area. become. The window 2-1 is set as the most suitable area for detecting the left and right white lines of the area immediately adjacent to the own vehicle in the own vehicle lane, and there are images of the right end white line and the left end white line in the window 2-1 area. Then, the straight line of the third detection has a high probability of being a straight line approximating this white line. Therefore, the "straight line fitting" 63 is the detection of the left and right white lines of the vehicle lane.

【0065】図15を再度参照すると、CPU1は、次
に、検出した2直線を表わすデータ(Rm31,Tm31),
(Rm32,Tm32)の傾斜角を比較して(64A)、左上
りの直線を右直線レジスタ(RmR,TmR)に、右左上り
の直線を左直線レジスタ(RmL,TmL)に格納する(6
4B,64C)。以上で「左右白線検出」D3を終了す
る。CPU1は次に、「無限遠点計算」D4を行なう。
この内容を図22に示す。
Referring again to FIG. 15, the CPU 1 then outputs data (Rm31, Tm31) representing the detected two straight lines,
The inclination angles of (Rm32, Tm32) are compared (64A), the upper left straight line is stored in the right straight line register (RmR, TmR), and the right upper left straight line is stored in the left straight line register (RmL, TmL) (6
4B, 64C). Thus, the "left and right white line detection" D3 is completed. The CPU 1 then performs "infinity point calculation" D4.
This content is shown in FIG.

【0066】D4.「無限遠点計算」D4(図22) ここではまず、「直線交点計算」109で、レジスタR
mR,TmRのデータが表わす直線(自車レーン右端白線と
推定した)と、レジスタRmL,TmLのデータが表わす直
線(自車レーン左端白線と推定した)との交点(Xc,
Yc)を算出する。次に、算出した交点(Xc,Yc)
が、過去に算出した交点データを時系列で重み付け平滑
化(平均化)して得ている無限遠点(Xv,Yv)を中
心とする横60画素×縦60画素の領域内に存在するか
をチェックする(110,111)。この領域内である
と、今回求めた交点(Xc,Yc)が無限遠点である信
頼性が高いので、無限遠点データ(Xv,Yv)を、今
回求めた交点(Xc,Yc)に1/8の重み付けをし、
これまでの無限遠点データ(Xv,Yv)に7/8の重
み付けをして加算した値に更新する(112)。そし
て、無限遠点追跡に失敗した回数をカウントするための
レジスタNveをクリアする(113)。
D4. "Point calculation at infinity" D4 (Fig. 22) First, in "Line intersection calculation" 109, register R
An intersection (Xc, Xc, between a straight line (estimated as the right end white line of the own vehicle lane) represented by mR and TmR data and a straight line (estimated as the left end white line of the own vehicle lane) represented by data of registers RmL and TmL
Yc) is calculated. Next, the calculated intersection (Xc, Yc)
Exists in a region of 60 pixels in the horizontal direction and 60 pixels in the vertical direction centered on the point at infinity (Xv, Yv) obtained by weighting smoothing (averaging) the intersection data calculated in the past in time series. Is checked (110, 111). Within this area, the intersection point (Xc, Yc) obtained this time is highly reliable at the point at infinity, so the infinity point data (Xv, Yv) is set to 1 at the intersection point (Xc, Yc) obtained this time. / 8 weighting,
The infinite point data (Xv, Yv) so far is weighted by 7/8 and updated to a value added (112). Then, the register Nve for counting the number of times the tracking of the point at infinity has failed is cleared (113).

【0067】今回算出した交点(Xc,Yc)が、前記
横60画素×縦60画素の領域内にないときには、無限
遠点追跡が失敗(今回の交点算出がエラー又はこれまで
の無限遠点データ(Xv,Yv)がエラー)であるとし
て、レジスタNveの内容を1インクレメントし(11
4)、レジスタNveの内容が5になったかをチェックす
る(115)。5になっていると、今回と過去4回の計
5回連続して交点算出がエラーであったことになり、こ
れは現在保待している無限遠点データ(Xv,Yv)が
エラーであると見なして、無限遠点データ(Xv,Y
v)を今回算出した交点(Xc,Yc)に更新する(1
16)。
When the intersection point (Xc, Yc) calculated this time is not within the area of 60 pixels in the horizontal direction and 60 pixels in the vertical direction, the tracking of the point at infinity is unsuccessful. Assuming that (Xv, Yv) is an error, the content of the register Nve is incremented by 1 (11
4) It is checked whether the content of the register Nve has reached 5 (115). When it is 5, this means that there was an error in the intersection calculation this time and the past four times, a total of 5 times in succession. This is because the infinity point data (Xv, Yv) currently held is an error. Infinite point data (Xv, Y
v) is updated to the intersection (Xc, Yc) calculated this time (1
16).

【0068】D5.「左右白線間隔(WL)計算」D5
(図13&図23) 再度図13を参照すると、CPU1は次に、自車レーン
の右白線と左白線との間隔(レーン幅)WLを算出する
(D5)。これにおいては、カメラ6bの視野中心線
(図23の2点鎖線)が路面と交わる位置(画面上では
画面の中心点)での、画面上の右端白線(RmR,TmR)
のX位置を路面上位置XRに変換し、画面上の左端白線
(RmL,TmL)のX位置を路面上位置XLに変換して、
間隔WL=XR−XLを算出する。なお、図13の演算ブ
ロックD5内の、SxおよびSyはそれぞれカメラ6b
の横方向および縦方向のスケールファクタであり、Hc
は図23に示すように、カメラ6bのレンズ9の中心
の、路面からの高さである。
D5. "White line spacing (WL) calculation" D5
(FIGS. 13 & 23) Referring again to FIG. 13, the CPU 1 next calculates the interval (lane width) WL between the right white line and the left white line of the vehicle lane (D5). In this case, the rightmost white line (RmR, TmR) on the screen at the position where the center line of the field of view of the camera 6b (two-dot chain line in FIG. 23) intersects the road surface (the center point of the screen on the screen)
The X position of is converted to the road position XR, and the X position of the left end white line (RmL, TmL) on the screen is converted to the road position XL.
The interval WL = XR-XL is calculated. Note that Sx and Sy in the operation block D5 of FIG.
Horizontal and vertical scale factors of Hc
Is the height of the center of the lens 9 of the camera 6b from the road surface, as shown in FIG.

【0069】CPU1は次に、算出した、路面上のレー
ン間隔WLが正しい(自車レーン検出成功)かをチェック
する(D6)。すなわち、基準値WL3Dに対するWLの偏
差が、許容範囲DwL内であるかをチェックする。この実
施例では、日本の高速道路のレーン幅が3.5±0.2
mであるので、基準値WL3D=3.5mに、許容値DwL
=0.3mに定めている。
Next, the CPU 1 checks whether the calculated lane interval WL on the road surface is correct (success in detecting the own vehicle lane) (D6). That is, it is checked whether the deviation of WL from the reference value WL3D is within the allowable range DwL. In this example, the highway lane width of Japan is 3.5 ± 0.2.
m, the reference value WL3D = 3.5 m, the allowable value DwL
= 0.3m.

【0070】基準値WL3Dに対するWLの偏差が許容範囲
DwL内にあると、自車レーン検出に成功しているとし
て、これを表わす情報「1」をレジスタFLに書込み
(61)、基準値WL3Dに対するWLの偏差が許容範囲D
wLを外れていると、自車レーン検出に失敗しているとし
て、これを表わす情報「0」をレジスタFLに書込む
(62)。以上で、図3に示す「自車レーン検出」Dを
終了したことになり、自車レーン検出が成功している
と、レジスタFLのデータは「1」である。
If the deviation of WL with respect to the reference value WL3D is within the allowable range DwL, it is determined that the own vehicle lane has been detected successfully, and information "1" indicating this is written in the register FL (61) to the reference value WL3D. The deviation of WL is the allowable range D
If it is out of wL, it is determined that the vehicle lane detection has failed, and information "0" indicating this is written in the register FL (62). As described above, the “vehicle lane detection” D shown in FIG. 3 is completed, and when the vehicle lane detection is successful, the data in the register FL is “1”.

【0071】再度図3を参照する。「自車レーン検出」
Dを終了するとCPU1は、レジスタFLのデータをチ
ェックしてそれが「1」であると、「隣接レーン推定」
Fを実行する。この内容を図24に示す。
Referring again to FIG. "Own vehicle lane detection"
When D is finished, the CPU 1 checks the data in the register FL and if it is “1”, “adjacent lane estimation”
Execute F. This content is shown in FIG.

【0072】 F.「隣接レーン推定」F(図24&図24) 図24を参照すると、ここではまずカメラ6bの下向き
角αを算出する(117)。ステップ117の計算式中
のYoは画面中心のY座標値、Ychは「画面の校正」
Cの「直線交点計算」C4で定めた画面下端のY座標値
である。次に、車両の進行方向に対する自車レーンの右
端白線のなす角φRおよび左端白線のなす角φLを算出し
て、それらの平均値φを算出する。「画面の校正」Cを
終えた画面(補正画像メモリの画像)では、先の「画面
の校正」Cで、車両進行方向が画面を左右に2等分する
中央線(Y=255)に合致しているので、φRはこの
線に対して右端白線が交鎖する角度、φLは左端白線が
交鎖する角度である。図25に示すように、それらの平
均値φの角度の直線が、自車レ−ンの中央線である。次
のステップ119には、カメラ6bの視野中心線が路面
と交わる点に対する右端白線の距離XRおよび左端白線
の距離XLを算出する式を示すが、これらXRおよびXL
は、「左右白線間隔(WL)計算」D5で算出している
ので、そこでの算出値を用いる。次に、自車レ−ン右端
白線の右側のレ−ン(右隣接レ−ン)の右端白線の有無
にかかわらず、これが存在すると仮定して、XRの点を
水平方向右側にレ−ン幅WL(D5で算出済)をとった
点と、無限遠点とを結ぶ直線が、右レ−ンの右端白線で
あるとして、その直線を表わす式Y=AX+Bの比例項
係数Aの値Aex1(水平線(X軸)となす角TmRRのta
n値)を算出し、定数項Bの値Bex1を算出する(12
0)。同様にして、左レ−ンの左端白線を表わす値Aex
2およびBex2を算出する(121)。そしてこれらの値
Aex1,Bex1およびAex2,Bex2を、それぞれρ−θ極
座標に変換する(122,123)。以上で、自車走行
レ−ンの両端白線(2直線)に加えて、左隣接レ−ンお
よび右隣接レ−ンを規定する2直線を更に追加決定した
ことになる。
F. “Adjacent lane estimation” F (FIGS. 24 & 24) Referring to FIG. 24, first, the downward angle α of the camera 6b is calculated (117). In the calculation formula of step 117, Yo is the Y coordinate value of the screen center, and Ych is “screen calibration”.
It is the Y coordinate value of the lower edge of the screen defined in “Calculation of straight line intersection” C4. Next, the angle φR formed by the right end white line and the angle φL formed by the left end white line of the vehicle lane with respect to the traveling direction of the vehicle are calculated, and the average value φ thereof is calculated. On the screen (image in the corrected image memory) that has completed the “screen calibration” C, the previous “screen calibration” C indicates that the vehicle traveling direction is aligned with the center line (Y = 255) that bisects the screen left and right. Therefore, φR is the angle at which the right end white line intersects with this line, and φL is the angle at which the left end white line intersects. As shown in FIG. 25, the straight line of the angles of the average values φ is the center line of the own vehicle lane. In the next step 119, formulas for calculating the distance XR of the right end white line and the distance XL of the left end white line to the point where the center line of the field of view of the camera 6b intersects the road surface are shown. XR and XL
Is calculated in "calculation of the space between the left and right white lines (WL)" D5, and the calculated value is used. Next, regardless of the presence or absence of the right end white line of the right side lane (right adjacent lane) of the own vehicle lane right end white line, it is assumed that this exists, and the point of XR is laneed to the right in the horizontal direction. Assuming that the straight line connecting the point having the width WL (calculated in D5) and the point at infinity is the right end white line of the right lane, the value Aex1 of the proportional term coefficient A of the formula Y = AX + B representing the straight line (Ta of the angle TmRR formed with the horizontal line (X axis)
Then, the value Bex1 of the constant term B is calculated (n value) (12)
0). Similarly, the value Aex representing the leftmost white line of the left lane
Calculate 2 and Bex2 (121). Then, these values Aex1, Bex1 and Aex2, Bex2 are converted into ρ-θ polar coordinates (122, 123). As described above, two straight lines defining the left adjacent lane and the right adjacent lane are additionally determined in addition to the white lines (two straight lines) at both ends of the own vehicle traveling lane.

【0073】再度図3を参照する。「隣接レ−ン推定」
Fを終了するとCPU1は、CPU1は、「自車レ−ン
先行車両認識及び測距」Hを実行する。この内容を図2
8に示す。
Referring again to FIG. "Adjacent lane estimation"
When F is finished, the CPU 1 executes "own vehicle lane preceding vehicle recognition and distance measurement" H. This content is shown in Figure 2.
8 shows.

【0074】H.「自車レ−ン先行車両認識及び測距」
H(図28&図29〜46) ここではまず「車両候補位置の検出1」H1を実行す
る。この内容を図29に示す。
H. "Self-vehicle lane preceding vehicle recognition and distance measurement"
H (FIGS. 28 & 29 to 46) Here, "detection 1 of candidate vehicle position 1" H1 is first executed. This content is shown in FIG.

【0075】 H1.「車両候補位置の検出1」H1(図29) まず「特徴点メモリクリア」131で、補正画像メモリ
の画素(アドレス)数と対応する画素数の、多階調デ−
タメモリD(x,y)および2値デ−タメモリE(x,
y)をクリアする。その処理の詳細を図30に示す。次
に「水平特徴点の検出」132を実行する。この内容を
図31に示す。
H1. “Detection 1 of vehicle candidate position” H1 (FIG. 29) First, in “feature point memory clear” 131, a multi-gradation data of the number of pixels corresponding to the number of pixels (addresses) in the corrected image memory is displayed.
Data memory D (x, y) and binary data memory E (x,
y) is cleared. Details of the processing are shown in FIG. Next, the "detection of horizontal feature point" 132 is executed. This content is shown in FIG.

【0076】「水平特徴点の検出」132 図31および図27を参照するとここでは、図27に示
される画面上の、Y=350の横線(Y=350を通るX
軸平行線)を低辺とし、自車レ−ンの左,右端白線がY
=230(ウィンドウ2−2内:図26参照)と交わる
2点を結ぶ横線を頂辺とする台形領域(図26に縦線で
塗りつぶして示す領域=自車レ−ン領域)の、X=Xvc
なるY軸平行線で区分される左半分領域を規定して、該
左半分領域の内部を、下から上へY方向走査し、X位置
を更新しつつこの走査を繰返して(図31の146L〜
150L,152L〜153L)、補正画像メモリ上の
画像デ−タのY方向微分値を算出し、微分値がしきい値
以上の点を特徴点と検出する(151L)。すなわち
「1ライン水平特徴点検出」151Lを実行する。この
内容を図32に示す。この処理151Lは、図6に示す
「特徴点検出(UP)」C2と同様であるので、詳細な
説明は省略する。
[Detection of Horizontal Feature Point] 132 Referring to FIGS. 31 and 27, here, a horizontal line of Y = 350 (X passing through Y = 350 on the screen shown in FIG. 27 is displayed.
(Axis parallel line) is the low side, and the left and right white lines of the vehicle lane are Y
= 230 (in the window 2-2: see FIG. 26), X = of a trapezoidal region having a horizontal line connecting the two points intersecting the apex (region shown by vertical lines in FIG. 26 = own vehicle lane region) Xvc
By defining the left half region divided by the Y-axis parallel line, the inside of the left half region is scanned from bottom to top in the Y direction, and this scanning is repeated while updating the X position (146L in FIG. 31). ~
150L, 152L to 153L), the Y-direction differential value of the image data on the corrected image memory is calculated, and a point having a differential value equal to or larger than the threshold value is detected as a feature point (151L). In other words, "1 line horizontal feature point detection" 151L is executed. This content is shown in FIG. This processing 151L is the same as the "feature point detection (UP)" C2 shown in FIG. 6, and thus detailed description thereof will be omitted.

【0077】次に、前記自車レ−ン領域の、X=Xvcな
るY軸平行線で区分される右半分領域を規定して、該右
半分領域の内部(X=Xvcは含む)を、下から上へY方
向走査し、X位置を更新しつつこの走査を繰返して(図
31の146R〜150R,152R〜153R)、補
正画像メモリ上の画像デ−タのY方向微分値を算出し、
微分値がしきい値以上の点を特徴点と検出する(151
R)。
Next, the right half region of the own vehicle lane region divided by the Y-axis parallel line X = Xvc is defined, and the inside of the right half region (including X = Xvc) is defined as follows. Scan from the bottom to the top in the Y direction, and repeat this scan while updating the X position (146R to 150R, 152R to 153R in FIG. 31) to calculate the Y direction differential value of the image data on the corrected image memory. ,
Points whose differential value is greater than or equal to the threshold value are detected as feature points (151).
R).

【0078】以上により、前記自車レ−ン領域の特徴点
検出を行なったことになり、2値デ−タメモリE(x,
y)の、特徴点に対応するアドレスに、そこが特徴点で
あることを示す「1」が書込まれている。なお、前述の
「特徴点メモリクリア」131で、2値デ−タメモリE
(x,y)を予めクリアしている(全アドレスに「0」
書込み)ので、2値デ−タメモリE(x,y)上では、
自車レ−ン領域内の特徴点に対応するアドレスのみに
「1」(特徴点である)が書込まれていることになる。
As described above, the characteristic points in the own vehicle lane area have been detected, and the binary data memory E (x,
"1" indicating that the point is a feature point is written in the address corresponding to the feature point in y). In addition, in the above-mentioned "feature point memory clear" 131, the binary data memory E
Clear (x, y) in advance (“0” for all addresses)
Writing), so on the binary data memory E (x, y),
"1" (which is a feature point) is written only in the address corresponding to the feature point in the own vehicle lane area.

【0079】次にCPU1は、ヒストグラムメモリをク
リアする(図29の133)。この内容は図33に示
す。CPU1は次に、「y方向ヒストグラム作成」13
4を行なう。この内容を図34に示す。
Next, the CPU 1 clears the histogram memory (133 in FIG. 29). This content is shown in FIG. The CPU 1 then performs “y-direction histogram creation” 13
Do 4. This content is shown in FIG.

【0080】 「y方向ヒストグラム作成」134(図34) ここでは、2値デ−タメモリE(x,y)上の、Y=0
〜Y=511のX軸平行線(X走査線;X方向の画素の
連なり)のそれぞれにつき、線上にある「1」(特徴
点)の数を、カウントして、ヒストグラムメモリH
(y)に走査線(Yアドレス)対応でカウント値を書込
む。
“Creation of y-direction histogram” 134 (FIG. 34) Here, Y = 0 on the binary data memory E (x, y).
Up to Y = 511 X-axis parallel lines (X scanning lines; a series of pixels in the X direction), the number of "1" (characteristic points) on the line is counted, and the histogram memory H
The count value is written in (y) in correspondence with the scanning line (Y address).

【0081】「y方向極大点検出」135(図35) ヒストグラムメモリH(y)のY=511のアドレス
(Y=511のX軸走査線)から順次にY=1まで、各
アドレスを注目線(y)に定めて、注目線(y)の特徴
点カウント値H(y),それよりY座標値が1つ小さい
走査線(y−1)の特徴点カウント値H(y−1)、お
よび、注目線(y)よりY座標値が1つ大きい走査線
(y+1)の特徴点カウント値H(y+1)を比較して
(図35の174,175)、H(y)がH(y−1)
およびH(y+1)のいずれよりも大きいと、すなわち
注目線(y)が特徴点数のピ−ク位置であると、注目線
(y)の位置(Yアドレス)での自車レ−ン左端点(X
1)と右端点(X2)を算出する(176,177;計算
式は図36に示す)。そして、しきい値Th2を(X2
−X1)/8に設定して(178)、注目線(y)の特
徴点カウント値H(y)がしきい値Th2以上である
と、注目線(y)上に横方向に延びる像輪郭線があると
見なして、注目線(y)のアドレス(Y座標値)をメモ
リMy(N)のアドレスNに書込む(180)。そして
レジスタNを1インクレメントする。レジスタNの値が
5以上(異なった6走査線で像輪郭線を検出した)にな
ると、あるいは最後の走査線Y=1を注目線とする上記
処理を終了すると、そこで、「y方向極大点検出」13
5を終了する。
[Detection of maximum point in y-direction] 135 (FIG. 35) From the address of Y = 511 (X-axis scanning line of Y = 511) of the histogram memory H (y) to Y = 1, each address is a line of interest. (Y), the characteristic point count value H (y) of the attention line (y), the characteristic point count value H (y-1) of the scanning line (y-1) whose Y coordinate value is one smaller than that, Also, the feature point count values H (y + 1) of the scanning line (y + 1) whose Y coordinate value is one larger than the line of interest (y) are compared (174 and 175 in FIG. 35), and H (y) becomes H (y -1)
And H (y + 1), that is, if the attention line (y) is the peak position of the number of feature points, the left end point of the own vehicle lane at the position (Y address) of the attention line (y). (X
1) and the right end point (X2) are calculated (176, 177; the calculation formula is shown in FIG. 36). Then, the threshold Th2 is set to (X2
If -X1) / 8 is set (178) and the feature point count value H (y) of the attention line (y) is greater than or equal to the threshold Th2, the image contour extending in the horizontal direction on the attention line (y). Assuming that there is a line, the address (Y coordinate value) of the line of interest (y) is written to the address N of the memory My (N) (180). Then, the register N is incremented by 1. When the value of the register N becomes 5 or more (the image contour line is detected by 6 different scanning lines), or when the above-mentioned processing with the last scanning line Y = 1 as the line of interest is completed, the "maximum inspection in the y direction is detected". Out "13
Finish 5

【0082】図16に示すように、ウィンドウ2−1内
にに車両(先行車両)の少くとも一部があると、先行車
両の後部像がウィンドウ2−1内に現われ、後部像の下
部の路面上に影(黒)が現われ、先行車両の後部像に
は、バンパ−(その下縁が特に高いコントラストの横線
として現われる),ナンバ−プレ−ト,ブレ−キランプ
パネル,後部窓,ル−フ等々の、横(X)方向に延びる
像輪郭線が多数あるので、メモリMy(N)のアドレス
0〜5に、自車に近い(Y座標値が大きい)6個の像輪
郭線の位置(Y座標)が書込まれていることになる。
As shown in FIG. 16, when there is at least a part of the vehicle (leading vehicle) in the window 2-1, the rear image of the preceding vehicle appears in the window 2-1 and the rear portion of the rear image is displayed. A shadow (black) appears on the road surface, and a bumper (the lower edge of which appears as a horizontal line with a particularly high contrast), a number plate, a brake lamp panel, a rear window, and a rear window in the rear image of the preceding vehicle. Since there are many image contour lines extending in the lateral (X) direction such as F, there are six image contour lines near the own vehicle (large Y coordinate value) at addresses 0 to 5 of the memory My (N). The position (Y coordinate) is written.

【0083】なお、ステップ178で、しきい値Th2
を(X2−X1)/8に設定するのは、カメラ6bに近い
ほど像輪郭線のコントラストが高く、特徴点が多く摘出
されるが、遠くの像輪郭線のコントラストは低く、特徴
点の摘出が少くなるので、(X2−X1)により注目線
(y)上にある像輪郭の、カメラ6bからの距離を推定
し、距離に応じてしきい値を変更するためである。
In step 178, the threshold value Th2
Is set to (X2-X1) / 8, the closer to the camera 6b, the higher the contrast of the image contour line and the more feature points are extracted. However, the contrast of the far image contour line is low, and the feature point is extracted. This is because the distance from the camera 6b of the image contour on the line of interest (y) is estimated from (X2-X1) and the threshold value is changed according to the distance.

【0084】「X方向重心計算」136(図37) 次に、メモリMy(N)に書込んだ、像輪郭線の位置
(Y座標値)のそれぞれにつき、該位置よりW1(設定
値)小さくW2(設定値)大きい領域内の、2値デ−タ
メモリE(x,y)上の特徴点(図27に横線で塗りつ
ぶした自車レ−ン領域内の特徴点)のX座標値を累算レ
ジスタSumxに加算し、加算回数をレジスタNxでカウ
ントして(187〜197)、重心X座標値(平均座標
値)を算出してメモリMx(N)に書込む(198)。
これにより、「y方向極大点検出」135で検出した、
横方向に延びる像輪郭線それぞれのX方向重心位置(X
座標値)がメモリMx(N)に存在することになる。な
お、Y方向重心位置はメモリMy(N)に存在する。
[Calculation of Center of Gravity in X Direction] 136 (FIG. 37) Next, for each position (Y coordinate value) of the image contour line written in the memory My (N), W1 (set value) is smaller than the position. W2 (setting value) The X coordinate value of the feature point on the binary data memory E (x, y) (the feature point in the own vehicle lane region filled with a horizontal line in FIG. 27) in the large region is accumulated. The value is added to the arithmetic register Sumx, the number of times of addition is counted by the register Nx (187 to 197), the barycentric X coordinate value (average coordinate value) is calculated and written in the memory Mx (N) (198).
As a result, the “y-direction maximum point detection” 135 detects
Center-of-gravity position in the X direction of each image contour line extending in the lateral direction (X
The coordinate value) exists in the memory Mx (N). The Y-direction center-of-gravity position exists in the memory My (N).

【0085】以上で、図28(詳細は図29)に示す
「車両候補位置の検出」H1を終了し、CPU1は次
に、後に使用するレジスタNRをクリアして(H2)、
「車両左右端の検出」H3を実行する。この内容を図3
8に示す。
Thus, the "detection of candidate vehicle position" H1 shown in FIG. 28 (details are shown in FIG. 29) is completed, and the CPU 1 next clears the register NR to be used later (H2).
"Detection of left and right ends of vehicle" H3 is executed. This content is shown in Figure 3.
8 shows.

【0086】 H3.「車両左右端の検出」H3(図38) ここではまず「車両左右端位置推定」201を実行す
る。その内容を図39に示す。
H3. "Detection of left and right ends of vehicle" H3 (Fig. 38) First, "estimation of left and right ends of vehicle" 201 is executed. The contents are shown in FIG.

【0087】「車両左右端位置推定」201(図39) まず、メモリMy(N)にある、像輪郭線のY座標値の
最も大きい値のものMy(NR)(N=NR=0のアドレ
スのデ−タ)、すなわち自車に最も近い前方物体の像輪
郭線(横線)のY位置、を読出して、カメラ6bからそ
こまでの水平距離(路面上の距離)L1を算出する(2
08)。次に前方物体が車両であると仮定(この仮定の
正誤は後述する「車両の検定」H4で検証する)して、
画面上の車幅Wv2Dpおよび車高Hv2Dpを算出する(20
9)。この算出に使用するWv3Dは、車幅学習値を格納
したレジスタWv3D(図46を参照して後述)のデ−タ
(先行車両を過去に検出していなと最も代表的な実物車
両の車幅1.7m)であり、Hv3Dは、ミニカ−もカバ
−する車高1.2mである。次に、画面上の車幅Wv2Dp
と、メモリMx(N)にある像輪郭線の重心位置Mx
(NR)から、前方物体の画面上の左右端位置XvLp,X
vRpを推定演算する(210)。そして画面上の上下端
yvHp,yvLpを推定演算する(211)。
"Vehicle left and right end position estimation" 201 (FIG. 39) First, the one having the largest Y coordinate value of the image contour line in the memory My (N) My (NR) (address of N = NR = 0) Data), that is, the Y position of the image contour line (horizontal line) of the front object closest to the own vehicle, and the horizontal distance (distance on the road surface) L1 from the camera 6b to that position is calculated (2).
08). Next, it is assumed that the front object is a vehicle (the correctness of this assumption is verified by "vehicle verification" H4 described later),
The vehicle width Wv2Dp and vehicle height Hv2Dp on the screen are calculated (20
9). The Wv3D used for this calculation is the data of the register Wv3D (which will be described later with reference to FIG. 46) that stores the vehicle width learning value (the vehicle width of the actual vehicle that is the most typical vehicle that has not detected the preceding vehicle in the past). Hv3D has a vehicle height of 1.2 m, which covers even mini cars. Next, the vehicle width Wv2Dp on the screen
And the barycentric position Mx of the image contour line in the memory Mx (N)
From (NR), the left and right end positions XvLp, X on the screen of the front object
Estimate vRp (210). Then, the upper and lower ends yvHp and yvLp on the screen are estimated and calculated (211).

【0088】次に多階調デ−タメモリD(x,y)およ
び2値デ−タメモリE(x,y)をクリアして(202
L)、「左端垂直特徴点検出」203Lを実行する。こ
の内容を図40に示す。
Next, the multi-gradation data memory D (x, y) and the binary data memory E (x, y) are cleared (202).
L), "Left edge vertical feature point detection" 203L is executed. This content is shown in FIG.

【0089】 「左端垂直特徴点検出」203L(図40) 前記画面上の上下端yvHp,yvLpの間の、前記画面上の
左端位置XvLpを中心に、±Wv2Dp/4の領域の、補正
画像メモリ上の画像デ−タのY方向微分値を算出して多
階調デ−タメモリD(x,y)に書込み、かつ、多階調
デ−タをしきい値Th3と比較して、Th3以上である
と、2値デ−タメモリE(x,y)に「1」を書込む。
この特徴点検出処理は、すでに説明した「特徴点検出
(UP)」C2の処理と同様である。次にCPU1はヒ
ストグラムメモリ(先に使用したH(y))をクリアし
て(204L)、「x方向ヒストグラム作成」205L
を実行する。この内容を図41に示す。
“Left edge vertical feature point detection” 203L (FIG. 40) Corrected image memory in an area of ± Wv2Dp / 4 centered on the left edge position XvLp on the screen between the upper and lower edges yvHp and yvLp on the screen. The differential value of the above image data in the Y direction is calculated and written in the multi-gradation data memory D (x, y), and the multi-gradation data is compared with the threshold value Th3 to be Th3 or more. Then, "1" is written in the binary data memory E (x, y).
This feature point detection processing is the same as the "feature point detection (UP)" C2 processing described above. Next, the CPU 1 clears the histogram memory (H (y) used previously) (204L), and "creates an x-direction histogram" 205L
To execute. This content is shown in FIG.

【0090】 「x方向ヒストグラム作成」205L(図41) 前記「左端垂直特徴点検出」203Lで特徴点を検出し
た領域内の、Y軸平行線(画素の連なり)上の特徴点
を、線単位でカウントして、線アドレス(X座標値)対
応でヒストグラムメモリ(ここではH(x)と表記す
る)に書込む。そして「x方向最大点検出」206Lを
実行する。その内容を図42に示す。
“X-direction histogram creation” 205L (FIG. 41) The feature points on the Y-axis parallel line (consecution of pixels) in the region where the feature points are detected by the “left-end vertical feature point detection” 203L are expressed in line units. Are counted and written in the histogram memory (herein denoted as H (x)) in correspondence with the line address (X coordinate value). Then, "detection of maximum point in x direction" 206L is executed. The contents are shown in FIG.

【0091】 「x方向最大点検出」206L(図42) この処理は大要では、先に説明した「y方向極大点検
出」135と同様な処理を、Y軸をX軸に置き換えて、
「左端垂直特徴点検出」203Lで特徴点を検出した領
域内で行なうものである。詳しくは、ここでは領域が狭
いので、極大点摘出のためのしきい値Th4は、Hv2Dp
/4なる固定値とするのに加えて、また、極大点の検出
ごとに、極大点の特徴点カウント数を極大値メモリHm
のデ−タと比較して、今回検出の極大点の方が大きいと
これを極大値メモリHmに更新書込みし、そのX座標値
を極大点レジスタXmに書込む。前記領域内すべてのこ
の処理を終えると、前記領域の中で、特徴点が最も多く
存在するY軸平行線(先行車両の左エッジ)のX座標値
がレジスタXmに格納されていることになる。このX座
標値を車両左端位置レジスタXvLに書込む(207
L)。
“Maximum point detection in x direction” 206L (FIG. 42) This process is basically the same as the process described in “Maximum point detection in y direction” 135 described above, with the Y axis replaced by the X axis.
This is performed in the area where the feature point is detected in "left edge vertical feature point detection" 203L. Specifically, since the area is narrow here, the threshold value Th4 for extracting the maximum point is Hv2Dp.
In addition to the fixed value of / 4, the feature point count number of the maximum point is also stored in the maximum value memory Hm every time the maximum point is detected.
If the maximum point detected this time is larger than the data of No. 3, the data is updated and written in the maximum value memory Hm, and the X coordinate value is written in the maximum point register Xm. When this process is completed for all the regions, the X coordinate value of the Y-axis parallel line (left edge of the preceding vehicle) having the most feature points in the region is stored in the register Xm. . This X coordinate value is written in the vehicle left end position register XvL (207
L).

【0092】以上の「特徴点メモリクリア」202L〜
「x方向最大点検出」206Lと同様な処理を、画面上
の上下端yvHp,yvLpの間の、右端位置XvRpを中心
に、±Wv2Dp/4の領域について行って(図38の20
2R〜206R)、該領域内で特徴点が最も多く存在す
るY軸平行線(先行車両の右エッジ)のX座標値を車両
右端位置レジスタXvRに書込む(207R)。「右端垂
直特徴点の検出」203Rの内容を図43に示す。
The above "feature point memory clear" 202L-
A process similar to “maximum point detection in x direction” 206L is performed for a region of ± Wv2Dp / 4 around the right end position XvRp between the upper and lower ends yvHp and yvLp on the screen (20 in FIG. 38).
2R to 206R), the X coordinate value of the Y-axis parallel line (right edge of the preceding vehicle) having the most feature points in the area is written in the vehicle right end position register XvR (207R). FIG. 43 shows the contents of “Detect right vertical feature point” 203R.

【0093】以上で、「車両左右端の検出」H3を終了
する。CPU1は次に「車両の検定」H3を実行する。
その内容を図44に示す。
This is the end of the "detection of the left and right ends of the vehicle" H3. The CPU 1 then executes "vehicle verification" H3.
The contents are shown in FIG.

【0094】H4.「車両の検定」H4(図44) ここでは、車幅学習値を格納したレジスタWv3D(図4
6を参照して後述)が保持する先行車両の車幅Wv3D
を、「車両左右端位置推定」201で算出した前方物体
の自車からの距離L1とカメラ6bのスケ−ルファクタ
Sxを用いて画面上の車幅Wv2Dに変換し(247)、
前述の車両左,右端位置XvL,XvRより画面上の車幅W
vを算出して(248)、両者の差Wv−Wv2Dが、±Wv
2D/4の範囲内にあるかをチェックする(249)。す
なわち、画面上の車幅計算値Wvが、車幅学習値を格納
したレジスタWv3Dの車幅(実物幅)の画面上の幅Wv2D
と実質上合致するかをチェックする。実質上合致する
と、先行車両検出/非検出を表わす情報「1」/「0」
を格納するレジスタFvMに「1」を書込む(250
a)。合致しないとレジスタFvMをクリアする(250
b)。
H4. "Vehicle verification" H4 (Fig. 44) Here, the register Wv3D (Fig. 4) that stores the vehicle width learning value is stored.
The vehicle width Wv3D of the preceding vehicle held by
Is converted into a vehicle width Wv2D on the screen by using the distance L1 of the front object from the own vehicle calculated in the "vehicle left and right end position estimation" 201 and the scale factor Sx of the camera 6b (247),
Vehicle width W on the screen from the above-mentioned vehicle left and right end positions XvL, XvR
v is calculated (248), and the difference Wv-Wv2D between them is ± Wv
It is checked whether it is within the range of 2D / 4 (249). That is, the vehicle width calculated value Wv on the screen is the vehicle width (actual width) Wv2D of the vehicle width of the register Wv3D storing the vehicle width learning value.
And check if it substantially matches. Information "1" / "0" indicating detection / non-detection of a preceding vehicle when the vehicle substantially matches
Write "1" to the register FvM that stores
a). If they do not match, the register FvM is cleared (250
b).

【0095】次にCPU1は、レジスタFvMに「1」を
書込んだときには後述する「車間距離計算」H6に進む
が、レジスタFvMに「0」を書込んだときには、レジス
タNRを1インクレメントして(H5−H8−H9)ま
た「車両左右端の検出」H3を実行する。「車両左右端
の検出」H3は、まずNR=0(自車両に最も近い)の
横方向輪郭線からこれを実行するので、2回目以降の
「車両左右端の検出」H3では、NR=1,2,・・と
なるので、2番目,3番目,・・・と、対象とする横方
向輪郭線を順次に自車両から遠いものに変更することに
なる。NRの最大値は5である(図35のN=0〜4で
5本の横方向輪郭線しか検出していない)ので、最大で
5回の「車両左右端の検出」H3を実行しそれでもFvM
=「1」にならないと後述の「車幅学習計算」H7に進
み、次に説明する「車間距離計算」H6は実行しない。
Next, when the CPU 1 writes "1" in the register FvM, the CPU 1 proceeds to "inter-vehicle distance calculation" H6, which will be described later, but when "0" is written in the register FvM, the register NR is incremented by 1. (H5-H8-H9) and "detect left and right ends of vehicle" H3 is executed. The "detection of the left and right ends of the vehicle" H3 is first executed from the lateral contour line of NR = 0 (closest to the own vehicle). Therefore, in the "detection of the left and right ends of the vehicle" H3 after the second time, NR = 1 , 2, ..., The second, third, ..., And the target lateral contour lines are sequentially changed to those farther from the vehicle. Since the maximum value of NR is 5 (only 5 horizontal contour lines are detected at N = 0 to 4 in FIG. 35), a maximum of 5 times "detection of left and right ends of vehicle" H3 is executed and still FvM
If the value does not become "1", the process proceeds to "vehicle width learning calculation" H7 described later, and "vehicle distance calculation" H6 described below is not executed.

【0096】H6.「車間距離計算」H6(図45) レジスタFvMに「1」を書込んだときには、車間距離L
2(0)を算出する(251)。車幅学習値を格納した
レジスタWv3Dの車幅(実物幅)Wv3D,画面上の車幅計
算値Wv,「車両左右端位置推定」201で算出した前
方物体の自車からの水平距離L1(路上実物距離)、お
よび、カメラ6bのスケ−ルファクタSxを用いて、車
間距離L2(0)を算出する(251)。今回算出値L2
(0)と、前回算出値L2(1),前々回算出値L2
(2)および前々々回算出値L2(3)の平均値を算出
してレジスタL3に書込み(252)、前回算出値L2
(1),前々回算出値L2(2)および前々々回算出値
L2(3)を更新する(253)。以上により、レジス
タL3には、自車レ−ンの先行車との車間距離(最近の
時系列平均値)を格納したことになる。
H6. "Vehicle distance calculation" H6 (Fig. 45) When "1" is written in the register FvM, the vehicle distance L
2 (0) is calculated (251). The vehicle width (actual width) Wv3D of the register Wv3D that stores the vehicle width learning value, the vehicle width calculation value Wv on the screen, the horizontal distance L1 of the front object calculated from the “vehicle left and right end position estimation” 201 from the own vehicle (on the road Using the actual distance) and the scale factor Sx of the camera 6b, the inter-vehicle distance L2 (0) is calculated (251). This time calculated value L2
(0), the previously calculated value L2 (1), the two-previously calculated value L2
(2) and the two-previously calculated value L2 (3) is calculated and the average value is written to the register L3 (252), and the previous calculated value L2 is calculated.
(1), the two-preceding calculation value L2 (2) and the two-preceding calculation value L2 (3) are updated (253). As a result, the inter-vehicle distance (latest time-series average value) from the preceding vehicle in the own vehicle lane is stored in the register L3.

【0097】H7.「車幅学習計算」H7(図46) レジスタL3の車間距離を前述のように更新するとCP
U1は、画面上の車幅Wvを実物車幅Wvaに変換し、レ
ジスタWv3Dのデ−タ(時間軸上で、今回の車間距離計
算までに保持する車幅学習値Wv3D)と今回の車幅計算
値Wvaを、47対1の重み付けで加算し、和を48で割
った値、すなわち重み付け平均値、をレジスタWv3Dに
更新メモリする(254,255a,255b)。自車
レ−ン先行車両を検出しない(FvM=「0」)でこの
「車幅学習計算」H7に進んだときには、レジスタWv3
Dに、この実施例では、最も代表的な車両(乗用車)の
車幅値1.7mを書込む(254,256)。
H7. "Vehicle width learning calculation" H7 (Fig. 46) CP is updated when the inter-vehicle distance in register L3 is updated as described above.
U1 converts the vehicle width Wv on the screen to the actual vehicle width Wva, and the data of the register Wv3D (the vehicle width learning value Wv3D held on the time axis until the current inter-vehicle distance calculation) and the current vehicle width The calculated value Wva is added with weighting of 47 to 1, and the value obtained by dividing the sum by 48, that is, the weighted average value is updated and stored in the register Wv3D (254, 255a, 255b). If the preceding vehicle of the own vehicle lane is not detected (FvM = "0") and the process goes to "vehicle width learning calculation" H7, register Wv3
In this embodiment, the vehicle width value 1.7 m of the most typical vehicle (passenger vehicle) is written in D (254, 256).

【0098】以上で「自車レ−ン先行車両認識及び測
距」Hを終了する。次にCPU1は、「右隣接レ−ン先
行車両認識及び測距」Iを実行する。この内容を図47
に示す。なお、先に説明した「左右白線検出」D3で自
車レ−ン右端白線を表わすデ−タ(TmR,RmR)および
左端白線を表わすデ−タ(TmL,RmL)をレジスタに格
納し、しかも、「隣接レ−ン推定」Fで、右隣接レ−ン
の右端白線(推定)を表わすデ−タ(TmRR,RmRR)お
よび左隣接レ−ンの左端白線(推定)を表わすデ−タ
(TmLL,RmLL)をレジスタに格納している点に注意さ
れたい。
With the above, the "recognition and distance measurement of the preceding vehicle lane preceding vehicle" H is completed. Next, the CPU 1 executes "right adjacent lane preceding vehicle recognition and distance measurement" I. This content is shown in FIG.
Shown in. In the above-mentioned "left and right white line detection" D3, the data (TmR, RmR) representing the right end white line of the own vehicle lane and the data (TmL, RmL) representing the left end white line are stored in the register, and , "Adjacent lane estimation" F, data (TmRR, RmRR) representing the right end white line (estimation) of the right adjacent lane and data (TmRR, RmRR) representing the left end white line (estimation) of the left adjacent lane. Note that TmLL and RmLL) are stored in the register.

【0099】I.「右隣接レ−ン先行車両認識及び測
距」I(図47,図48,図49) ここでは、ウィンドウ2の下辺(Y=350),自車レ
−ン右端白線(TmR,RmR)ならびに右隣接レ−ンの右
端白線(TmRR,RmRR)で囲まれる領域(右隣接レ−ン
領域)に、前述の「自車レ−ン先行車両認識及び測距」
Hの処理を同様に適用して、右隣接レ−ン領域の、自車
から見て前方の物体を検出し、自車からの距離を算出す
る。
I. "Right adjacent lane preceding vehicle recognition and distance measurement" I (Fig. 47, Fig. 48, Fig. 49) Here, the lower side of the window 2 (Y = 350), the vehicle lane right end white line (TmR, RmR) and In the area (right adjacent lane area) surrounded by the white line (TmRR, RmRR) on the right end of the right adjacent lane, the above-mentioned "recognition and distance measurement of preceding vehicle lane preceding vehicle" is performed.
The process of H is similarly applied to detect an object in the right adjacent lane area in front of the own vehicle, and calculate the distance from the own vehicle.

【0100】J.「左隣接レ−ン先行車両認識及び測
距」J(図50,図51,図52) これにおいても、ウィンドウ2の下辺(Y=350),
自車レ−ン左端白線(TmL,RmL)ならびに左隣接レ−
ンの左端白線(TmLL,RmLL)で囲まれる領域(左隣接
レ−ン領域)に、前述の「自車レ−ン先行車両認識及び
測距」Hの処理を同様に適用して、左隣接レ−ン領域
の、自車から見て前方の物体を検出し、自車からの距離
を算出する。
J. "Left adjacent lane preceding vehicle recognition and distance measurement" J (Figs. 50, 51, 52) Also in this case, the lower side of the window 2 (Y = 350),
Vehicle lane Left edge white line (TmL, RmL) and adjacent left rail
In the same way, the above-mentioned "own vehicle lane preceding vehicle recognition and distance measurement" process H is applied to the area (left adjacent lane area) surrounded by the leftmost white line (TmLL, RmLL) of the vehicle. An object in front of the own vehicle in the lane area is detected, and the distance from the own vehicle is calculated.

【0101】以上で、図3に示す「ウィンドウ2−1内
の車両検出」DET1を終了する。このDET1ではウ
ィンドウ2−1(図14,図16,図26)内の自車レ
−ン左,右端白線の検出,これに基づいた右隣接レ−ン
の右端白線の検出,左隣接レ−ンの左端白線の検出,ウ
ィンドウ2−1を中心にして、ウィンドウ2−2の略中
央部まで延びる領域内の自車レ−ン内(図26の縦線塗
りつぶし領域)の車両検出と距離算出,該領域内の右隣
接レ−ン内(図26の右側横線塗りつぶし領域)の車両
検出と距離算出、および、該領域内の左隣接レ−ン内
(図26の左側横線塗りつぶし領域)の車両検出と距離
算出を行なったことになる。これにおいて自車レ−ン内
の先行車両を検出しているとレジスタFvMには「1」が書
込まれている。右隣接レ-ンの車両を検出しているとレ
ジスタFvRには「1」が書込まれている。また、左隣接レ-
ンの車両を検出しているとレジスタFvLには「1」が書込
まれている。 CPU1は、次に、レジスタFvMの内容
が「1」(自車レ−ンに先行車両あり)であるかをチェ
ックして、「1」であると「出力」Kに進み、画像認識
結果を出力する。そしてまた「画像入力」Bを実行し、
同様な処理を行なう。すなわち、実質上ウィンドウ2−
1を対象とする処理で、自車レ−ン上に先行車両を検出
している間は、先行車両との車間距離が比較的に短いの
で、図3に示す「画像入力」B〜「出力」Kを繰返し実
行し、後述するウィンドウ2−2および2−2を対象と
する処理DET2およびDET2は実行しない。
Thus, the "vehicle detection in window 2-1" DET1 shown in FIG. 3 is completed. In this DET1, the left and right white lines of the own vehicle lane in the window 2-1 (FIGS. 14, 16, and 26) are detected, and the white line of the right edge of the right adjacent lane based on the detection is detected. Detection of the leftmost white line of the vehicle, detection of the vehicle within the own vehicle lane within the area extending from the window 2-1 to the center of the window 2-2 (vertical line-filled area in FIG. 26) and distance calculation. , Vehicle detection and distance calculation in a right adjacent lane in the area (right side horizontal line filled area in FIG. 26), and vehicle in a left adjacent lane in the area (left side horizontal line filled area in FIG. 26) This means that detection and distance calculation have been performed. At this time, when the preceding vehicle in the own vehicle lane is detected, "1" is written in the register FvM. When the vehicle in the right adjacent lane is detected, "1" is written in the register FvR. Also, the left adjacent record
When the vehicle of the vehicle is detected, "1" is written in the register FvL. Next, the CPU 1 checks whether the content of the register FvM is "1" (the preceding vehicle is in the own vehicle lane), and if it is "1", it proceeds to "output" K and displays the image recognition result. Output. Then, execute "image input" B again,
Perform similar processing. That is, the window 2
Since the inter-vehicle distance to the preceding vehicle is relatively short while the preceding vehicle is detected on the own vehicle lane in the processing for 1, the "image input" B to "output" shown in FIG. The K is repeatedly executed, and the processes DET2 and DET2 for windows 2-2 and 2-2 described later are not executed.

【0102】DET1で、自車レ−ン上に先行車両を検
出しなかったとき(FvM=0)には、CPU1はDET
1に続いて「ウィンドウ2−2内の車両検出」DET2
を実行する。DET2の処理は、図14,図16に示す
ウィンドウ2−2領域で、前述のDET1の処理と同様
な処理を実行するものであり、図27の(a)に示す自
車レ−ン領域(縦線の塗りつぶし領域),右隣接レ−ン
領域(右側の横線領域)および左隣接レ−ン領域(左側
の横線領域)の先行車両検出処理を行なう。自車レ−ン
領域で先行車両(路上物体)を検出するとレジスタFvM
に「1」を書込み、右隣接レ-ン領域で車両を検出するとレ
ジスタFvRに「1」を書込み、また、左隣接レ-ン領域で車
両を検出するとレジスタFvLに「1」を書込む。そして、
レジスタFvMに「1」を書込むと、「出力」Kに進み、D
ET3は実行しない。
When the preceding vehicle is not detected on the own vehicle lane in DET1 (FvM = 0), the CPU1 executes the DET.
1 followed by "Vehicle detection in window 2-2" DET2
To execute. The processing of DET2 is to execute the same processing as the processing of DET1 described above in the window 2-2 area shown in FIGS. 14 and 16, and the own vehicle lane area ((a) shown in FIG. A preceding vehicle detection process is performed for a vertical line filled area), a right adjacent lane area (right horizontal line area), and a left adjacent lane area (left horizontal line area). When a preceding vehicle (on-road object) is detected in the own vehicle lane area, the register FvM
When a vehicle is detected in the right adjacent lane area, "1" is written in the register FvR, and when a vehicle is detected in the left adjacent lane area, "1" is written in the register FvL. And
When you write "1" to register FvM, proceed to "Output" K, then D
Do not execute ET3.

【0103】DET2で、自車レ−ン上に先行車両を検
出しなかったとき(FvM=0)には、CPU1はDET
2に続いて「ウィンドウ2−3内の車両検出」DET3
を実行する。DET3の処理は、図14,図16に示す
ウィンドウ2−3領域で、前述のDET1の処理と同様
な処理を実行するものであり、図27の(b)に示す自
車レ−ン領域(縦線の塗りつぶし領域),右隣接レ−ン
領域(右側の横線領域)および左隣接レ−ン領域(左側
の横線領域)の先行車両検出処理を行なう。なお、この
ウィンドウ2−3は、前方路上の物体検出領域の最後
(最遠)のものであるので、路面領域の最遠点は、検出
した2直線(図27のLR3,LL3)の交点(無限遠
点)又は、この交点が画面を外れるときには、画面端
(Y=0)として、路面領域を規定する。自車レ−ン領
域で先行車両(路上物体)を検出するとレジスタFvMに
「1」を書込み、右隣接レ-ン領域で車両を検出するとレジ
スタFvRに「1」を書込み、また、左隣接レ-ン領域で車両
を検出するとレジスタFvLに「1」を書込む。そして、
「出力」Kに進む。
In DET2, when the preceding vehicle is not detected on the own vehicle lane (FvM = 0), the CPU 1 executes the DET.
2 followed by "Detection of vehicle in window 2-3" DET3
To execute. The process of DET3 is to execute the same process as the process of DET1 described above in the window 2-3 area shown in FIGS. 14 and 16, and the own vehicle lane area ((b) of FIG. A preceding vehicle detection process is performed for a vertical line filled area), a right adjacent lane area (right horizontal line area), and a left adjacent lane area (left horizontal line area). Since this window 2-3 is the last (farthest) end of the object detection area on the road ahead, the farthest point of the road surface area is the intersection point of the two detected straight lines (LR3, LL3 in FIG. 27) ( At the point of infinity) or when this point of intersection deviates from the screen, the road surface area is defined as the screen edge (Y = 0). When a preceding vehicle (on-road object) is detected in the own vehicle lane area, "1" is written in the register FvM, when a vehicle is detected in the right adjacent lane area, "1" is written in the register FvR, and the left adjacent area is detected. -When a vehicle is detected in the area, write "1" to the register FvL. And
Go to “Output” K.

【0104】以上に説明した第1実施例では、自車両に
最も近いウィンドウ2−1の領域内で自車レ−ン左,右
端白線LR1,LL1(図26)を検出して、これに基
づいて、ウィンドウ2−1内の左,右隣接レ−ンの左
端,右端白線を推定し、ウィンドウ2−1からウィンド
ウ2−2の中程までの、LR1,LL1間領域(図26
の縦線塗りつぶし領域)に物体が存在するか否かを検出
し、かつ同様に左,右隣接レ−ン領域(図26の横線塗
りつぶし領域)を定めてそこに物体が存在するか否かを
検出して、物体を検出すると自車から該物体までの距離
を算出する。自車レ−ン上のこの領域で物体を検出する
とウィンドウ2−2および2−3に関する処理は実行し
ない。該物体を検出しなかったときにウィンドウ2−2
に関しても同様な処理(図27のa)を実行し、ここで
自車レ−ン領域の物体を検出しないとウィンドウ2−3
に関しても同様な処理(図27のb)を実行する。
In the first embodiment described above, the left and right white lines LR1 and LL1 of the own vehicle lane (FIG. 26) are detected in the window 2-1 region closest to the own vehicle, and based on this detection. Then, the left and right white lines of the left and right adjacent lanes in the window 2-1 are estimated, and the area between LR1 and LL1 from the window 2-1 to the middle of the window 2-2 (see FIG. 26).
Of vertical lines), and whether or not an object is present in the left and right adjacent lane regions (horizontal line filled regions of FIG. 26) are similarly determined. When the object is detected and the object is detected, the distance from the vehicle to the object is calculated. When an object is detected in this area on the own vehicle lane, the processing regarding windows 2-2 and 2-3 is not executed. Window 2-2 when the object is not detected
The same processing (a in FIG. 27) is also executed for the window 2-3 if the object in the own vehicle lane area is not detected.
The same process (b in FIG. 27) is also executed for the above.

【0105】−第2実施例− この実施例では、CPU1は図53に示す処理を実行す
る。すなわち、「画面の校正」Cの次に、「自車レ−ン
検出(2−1)」D1(前述のDの内容に同じ)で、ウ
ィンドウ2−1内の2直線LR1,LL1(図14のc)を
検出し、検出した直線に基づいて「隣接レ−ン推定(2
−1)」F1(前述のFの内容に同じ)で、右隣接レ−
ンの右端白線LRR1および左隣接レ−ンの左端白線LLL1
を推定する。そしてウィンドウを2−2に切換えて、
「自車レ−ン検出(2−2)」D2および「隣接レ−ン
推定(2−2)」F2で、同様な直線検出および直線推
定を実行して、ウィンドウ2−2内の自車レ−ン端を表
わす2直線LR2,LL2(図14のc)ならびに右隣接レ
−ンの右端白線LRR2および左隣接レ−ンの左端白線LL
L2を推定する。更に、ウィンドウを2−3に切換えて、
「自車レ−ン検出(2−3)」D3および「隣接レ−ン
推定(2−3)」F3で、同様な直線検出および直線推
定を実行して、ウィンドウ2−3内の自車レ−ン端を表
わす2直線LR3,LL3(図14のc)ならびに右隣接レ
−ンの右端白線LRR3および左隣接レ−ンの左端白線LL
L3を推定する。
-Second Embodiment- In this embodiment, the CPU 1 executes the processing shown in FIG. That is, next to "Screen calibration" C, "Self-vehicle lane detection (2-1)" D1 (same as the above-mentioned content of D), two straight lines LR1 and LL1 in the window 2-1 (Fig. 14c) is detected, and "adjacent lane estimation (2
-1) "F1 (the same as the content of F described above), the right adjacent
Right edge white line LRR1 and left edge adjacent white line LLL1
To estimate. Then switch the window to 2-2,
The same straight line detection and straight line estimation are executed in "own vehicle lane detection (2-2)" D2 and "adjacent lane estimation (2-2)" F2, and the own vehicle within the window 2-2 is displayed. Two straight lines LR2 and LL2 (c in FIG. 14) representing the lane end, the right end white line LRR2 of the right adjacent lane and the left end white line LL of the left adjacent lane.
Estimate L2. Furthermore, switch the window to 2-3,
The same straight line detection and straight line estimation are executed in "Own vehicle lane detection (2-3)" D3 and "Adjacent lane estimation (2-3)" F3, and the own vehicle in the window 2-3 is displayed. Two straight lines LR3, LL3 (c in FIG. 14) representing the lane end, the right end white line LRR3 of the right adjacent lane and the left end white line LL of the left adjacent lane.
Estimate L3.

【0106】以上により、自車レ−ンの右端白線を表わ
す3本の直線LR1〜LR3,左端白線を表わす3本の直線
LL1〜LL3(図14のc)、ならびに、それらの外側
の、右隣接レ−ンの右端白線(推定)を表わす3本の直
線LRR1〜LRR3および左隣接レ−ンの左端白線(推定)
を表わす3本の直線LLL1〜LLL3が求められたことにな
る。
As described above, the three straight lines LR1 to LR3 representing the right end white line of the vehicle lane, the three straight lines LL1 to LL3 representing the left end white line (c in FIG. 14), and the outside of them, the right line Three straight lines LRR1 to LRR3 representing the rightmost white line (estimated) of the adjacent lane and the leftmost white line (estimated) of the left adjacent lane
That is, three straight lines LLL1 to LLL3 representing the above are obtained.

【0107】CPU1は次に、「自車レ−ン領域設定」
hで、直線LR1とウィンドウ2−2の右辺又は下辺(X=5
11の縦線又はY=350の横線)との交点,直線LR1とLR2の
交点(図14のaの丸印),LR2とLR3の交点,直線LL1
とウィンドウ2−1の左辺又は下辺(X=0の縦線又はY=35
0の横線)との交点,直線LL1とLL2の交点,LL2とLL3
の交点、ならびに、直線LR3とLL3との交点を算出し、
これらの交点のY方向で隣り合う2点を結ぶ直線とウィ
ンドウ2−1の下辺で囲まれる領域を自車走行レ−ン領
域と設定する。そして次の「自車レ−ン先行車両認識及
び測距」Hで、前述の第1実施例における物体検出と距
離算出(H)と同様な処理により、設定した領域内での
物体検出と距離算出を行なう。
Next, the CPU 1 sets "own vehicle lane area setting".
h, the straight line LR1 and the right or lower side of the window 2-2 (X = 5
11 vertical line or Y = 350 horizontal line), intersection of straight lines LR1 and LR2 (circle mark in FIG. 14a), intersection of LR2 and LR3, straight line LL1
And the left or bottom side of window 2-1 (vertical line at X = 0 or Y = 35
0) (horizontal line), intersections of straight lines LL1 and LL2, LL2 and LL3
And the intersection of the straight lines LR3 and LL3,
A region surrounded by a straight line connecting two points adjacent to each other in the Y direction at these intersections and the lower side of the window 2-1 is set as a vehicle traveling lane region. Then, in the next "recognition and distance measurement of the preceding vehicle lane" H, the same processing as the object detection and distance calculation (H) in the first embodiment described above is performed, and the object detection and the distance in the set area are performed. Calculate.

【0108】CPU1は次に、「右隣接レ−ン領域設
定」iで、直線LR1とウィンドウ2−1の右辺又は下辺
(X=511の縦線又はY=350の横線)との交点,直線LR1とL
R2の交点,LR2とLR3の交点,直線LRR1とウィンドウ2
−1の右辺又は下辺(X=511の縦線又はY=350の横線)との
交点,直線LRR1とLRR2の交点,LRR2とLRR3の交点、
ならびに、直線LR3とLRR3との交点を算出し、これら
の交点のY方向で隣り合う2点を結ぶ直線とウィンドウ
2−1の下辺で囲まれる領域を右隣接レ−ン領域と設定
する。そして次の「右隣接レ−ン先行車両認識及び測
距」Iで、前述の第1実施例における右隣接レ−ンにお
ける物体検出と距離算出(I)と同様な処理により、設
定した領域内での物体検出と距離算出を行なう。
Next, the CPU 1 executes the "right adjacent lane area setting" i, and the straight line LR1 and the right or lower side of the window 2-1.
Intersection with (vertical line of X = 511 or horizontal line of Y = 350), straight lines LR1 and L
R2 intersection, LR2 and LR3 intersection, straight line LRR1 and window 2
-1 right side or lower side (vertical line of X = 511 or horizontal line of Y = 350), intersection of straight lines LRR1 and LRR2, intersection of LRR2 and LRR3,
Further, the intersection between the straight lines LR3 and LRR3 is calculated, and the area surrounded by the straight line connecting two points adjacent to each other in the Y direction of these intersections and the lower side of the window 2-1 is set as the right adjacent lane area. Then, in the next "right adjacent lane preceding vehicle recognition and distance measurement" I, within the set area by the same processing as the object detection and distance calculation (I) in the right adjacent lane in the first embodiment described above. Object detection and distance calculation are performed.

【0109】CPU1は次に、「左隣接レ−ン領域設
定」jで、直線LL1とウィンドウ2−1の左辺又は下辺
(X=0の縦線又はY=350の横線)との交点,直線LL1とLL2
の交点,LL2とLL3の交点,直線LLL1とウィンドウ2−
1の左辺又は下辺(X=0の縦線又はY=350の横線)との交
点,直線LLL1とLLL2の交点,LLL2とLLL3の交点、な
らびに、直線LL3とLLL3との交点を算出し、これらの
交点のY方向で隣り合う2点を結ぶ直線とウィンドウ2
−1の下辺で囲まれる領域を左隣接レ−ン領域と設定す
る。そして次の「左隣接レ−ン先行車両認識及び測距」
Jで、前述の第1実施例における左隣接レ−ンにおける
物体検出と距離算出(J)と同様な処理により、設定し
た領域内での物体検出と距離算出を行なう。
Next, the CPU 1 executes the "left adjacent lane area setting" j, and the straight line LL1 and the left or lower side of the window 2-1.
Intersection with (vertical line at X = 0 or horizontal line at Y = 350), straight lines LL1 and LL2
Intersection, intersection of LL2 and LL3, straight line LLL1 and window 2-
Calculate the intersection with the left side or the bottom side of 1 (vertical line at X = 0 or horizontal line at Y = 350), the intersection between straight lines LLL1 and LLL2, the intersection between LLL2 and LLL3, and the intersection between straight lines LL3 and LLL3, and these A window and a straight line connecting two points adjacent to each other in the Y direction of the intersection of
The area surrounded by the lower side of -1 is set as the left adjacent lane area. And the next "Left adjacent lane preceding vehicle recognition and distance measurement"
In J, the object detection and the distance calculation in the set area are performed by the same processing as the object detection and the distance calculation (J) in the left adjacent lane in the first embodiment.

【0110】この第2実施例によっても、自車直前か
ら、自車レ−ンの左,右端白線が交わって見える遠方点
までの路面領域の全面(自車レ−ン,右隣接レ−ンおよ
び左隣接レ−ン)について、物体探索と検出した物体の
距離の算出が行なわれる。
Also according to the second embodiment, the entire road surface area (own vehicle lane, right adjacent lane) from immediately before the own vehicle to the far point where the left and right white lines of the own vehicle lane intersect. And the left adjacent lane), the object search and the distance of the detected object are calculated.

【0111】前述の第1実施例および第2実施例のいず
れにおいても、ウィンドウ2−1,2−2および2−3
と、自車直近から次第に遠方へ探索領域が設定されて各
領域でレ−ンを区切る白線の検出が行なわれて、検出し
た白線に基づいて探索領域が設定されるので、道路がカ
−ブしていても、探索領域が遠方で路面から外れる確率
が低く、路上物体の検出、特に遠方の路上物体の検出、
がより確実となる。
In both the first and second embodiments described above, windows 2-1, 2-2 and 2-3 are provided.
Then, a search area is set gradually from the immediate vicinity of the own vehicle, and a white line that separates the lanes is detected in each area, and the search area is set based on the detected white line. Even if the search area is distant, the probability of being off the road surface is low, and detection of road objects, especially detection of distant road objects,
Will be more certain.

【0112】[0112]

【発明の効果】以上のように本発明は、ウィンドウ2−
1,2−2および2−3と、自車直近から次第に遠方へ
探索領域が設定されて各領域でレ−ンを区切る白線の検
出が行なわれて、検出した白線に基づいて探索領域が設
定されるので、道路がカ−ブしていても、探索領域が遠
方で路面から外れる確率が低く、路上物体の検出、特に
遠方の路上物体の検出、がより確実となる。
As described above, according to the present invention, the window 2-
1, 2-2 and 2-3, and a search area is set gradually from the immediate vicinity of the vehicle to a distant location, and a white line that separates the lanes is detected in each area, and the search area is set based on the detected white line. Therefore, even if the road is curved, the probability that the search area will be off the road surface at a long distance is low, and the detection of a road object, especially the detection of a distant road object becomes more reliable.

【0113】本発明の好ましい実施例では、前記「左右
白線検出」D3の項で説明したように、複数回の極座標
変換を行ない、先行の極座標変換では、極座標系のパラ
メ−タρ,θが広い範囲であるので、特徴点(Xs,Ys)そ
れぞれを表わす曲線の交点(ρm,θm)が漏れる確率
(直線検出失敗確率)が低い。すなわち交点(ρm,θm)
検出の信頼度が高い。広範囲であると度数デ−タ格納用
メモリの所要容量が大きくなり、演算時間が長くなる
が、極座標系のパラメ−タρ,θが低密度であるので、
1つの特徴点(Xs,Ys)を表わす極座標系上の曲線のサン
プリング密度が低く、したがってメモリの所要容量は少
くて済み、演算時間は短い。
In the preferred embodiment of the present invention, the polar coordinate conversion is performed a plurality of times as described in the section "Detecting the left and right white lines" D3. In the preceding polar coordinate conversion, the polar coordinate system parameters ρ and θ are determined. Since it is a wide range, the probability that the intersection points (ρm, θm) of the curves representing the characteristic points (Xs, Ys) leak
(Probability of line detection failure) is low. That is, the intersection (ρm, θm)
High reliability of detection. If the range is wide, the required capacity of the frequency data storage memory becomes large and the calculation time becomes long, but since the parameters ρ and θ of the polar coordinate system are low density,
The sampling density of the curve on the polar coordinate system representing one feature point (Xs, Ys) is low, and therefore the required memory capacity is small and the operation time is short.

【0114】先行の極座標変換では、極座標系上の曲線
のサンプリング密度が低いことにより交点(ρm,θm)
を表わす精度が低いが、後行の極座標変換では高密度か
つ先行の極座標変換で得た極座標値(ρm,θm)を中心
とする狭い範囲とするので、先行の極座標変換で得た交
点周りの小範囲を精細に探索する極座標変換となり、極
座標系上の曲線のサンプリング密度が高いが範囲が狭い
ことによりメモリの所要容量は少くて済み、演算時間は
短い。サンプリング密度が高いことにより、高精度で交
点(ρm,θm)が検出される。
In the preceding polar coordinate conversion, the intersection point (ρm, θm) is set because the sampling density of the curve on the polar coordinate system is low.
Although the precision of expressing is low, in the subsequent polar coordinate conversion, the density is high and the polar coordinate value (ρm, θm) obtained by the preceding polar coordinate conversion is set as a narrow range. This is polar coordinate conversion for finely searching a small range, and the sampling density of the curve on the polar coordinate system is high, but the range is narrow, so the required memory capacity is small and the calculation time is short. Since the sampling density is high, the intersection (ρm, θm) can be detected with high accuracy.

【0115】例えば、上述の実施例のように、3回の極
座標変換を順次に行なうと、度数デ−タ格納用メモリの
所要容量は32×32×Da、合計の演算回数は32×3×N
で、第3回の極座標変換の分解能を1/1024とすると、こ
の分解能の単純ハフ変換のメモリ所要容量1024×1024×
Da,演算回数1024×Nに対して、メモリ容量は1/204
8、演算回数は96/1024となる。にもかかわらず、該単純
ハフ変換の分解能と同じ分解能(1/1024)で近似直線デ−
タ(第3回の変換で求めた極座標値(rm3,tm3))が得
られる。
For example, when the polar coordinate conversion is sequentially performed three times as in the above embodiment, the required capacity of the frequency data storage memory is 32 × 32 × Da, and the total number of operations is 32 × 3 ×. N
Then, if the resolution of the third polar coordinate conversion is 1/1024, the memory requirement of simple Hough conversion of this resolution is 1024 × 1024 ×
The memory capacity is 1/204 for Da and the number of operations 1024 × N.
8, the number of operations is 96/1024. Nevertheless, the approximate straight line data has the same resolution (1/1024) as that of the simple Hough transform.
Data (polar coordinate values (rm3, tm3) obtained in the third conversion) are obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明を一態様で実施する、車両上の、前方
路面上白線検出システムを示すブロック図である。
FIG. 1 is a block diagram illustrating a front road surface white line detection system on a vehicle embodying the present invention in one aspect.

【図2】 図1に示すテレビカメラ6bの、車両上の配
置位置を示す側面概要図である。
FIG. 2 is a schematic side view showing an arrangement position on the vehicle of the television camera 6b shown in FIG.

【図3】 テレビカメラ6bの撮影画像デ−タに基づい
た、図1に示すマイクロプロセッサ(CPU)1の、第
1実施例における、自車両前方の路面上白線および先行
車両を検出する処理の概要を示すフロ−チャ−ト(メイ
ンル−チン)である。
FIG. 3 is a flow chart showing a process of detecting a white line on the road surface ahead of the own vehicle and a preceding vehicle in the first embodiment of the microprocessor (CPU) 1 shown in FIG. 1 based on the imaged data of the television camera 6b. It is a flowchart (main routine) showing an outline.

【図4】 図3に示す「画面の校正」Cの内容を示すフ
ロ−チャ−ト(サブル−チン)である。
FIG. 4 is a flowchart (subroutine) showing the contents of “screen calibration” C shown in FIG.

【図5】 (a)は図4に示す「特徴点検出ウィンドウ
1セット」C1の内容を示すフロ−チヤ−ト、(b)は
図1に示すテレビカメラ6bの撮影画面を示す平面図で
ある。
5 (a) is a flow chart showing the contents of "1 set of feature point detection windows" C1 shown in FIG. 4, and FIG. 5 (b) is a plan view showing a shooting screen of the television camera 6b shown in FIG. is there.

【図6】 (a)は図4に示す「特徴点検出(UP)」
C2の内容を示すフロ−チャ−ト、(b)は撮影画面の
Y方向の画像デ−タの微分値を算出するときの、注目点
(算出点画素:×印)と、参照点(参照画素:白四角)
を示す平面図である。
6A is a “feature point detection (UP)” shown in FIG.
A flow chart showing the contents of C2, (b) is a target point (calculation point pixel: X mark) and a reference point (reference point) when calculating the differential value of the image data in the Y direction of the photographing screen. Pixel: White square)
FIG.

【図7】 (a)は図4に示す「ボンネット検出」C3
の内容を示すフロ−チャ−ト、(b)は撮影画面上のボ
ンネットエッジを近似する直線を示す平面図である。
7 (a) is a "bonnet detection" C3 shown in FIG.
2B is a plan view showing a straight line approximating the bonnet edge on the photographing screen.

【図8】 (a)は図4に示す「ロ−ル角,パン移動量
計算」C5で算出するロ−ル角とパン移動量を撮影画面
上に示す平面図、(b)は図4に示す「画像回転平行移
動」C7で撮影画面上の画素アドレスを、ロ−ル角分回
転しパン移動量分平行移動した補正画面上の画素アドレ
スに、変換する変換式を示す平面図である。
8A is a plan view showing the roll angle and the pan movement amount calculated by “calculation of roll angle and pan movement amount” C5 shown in FIG. 4 on a photographing screen, and FIG. FIG. 9 is a plan view showing a conversion formula for converting a pixel address on a photographing screen by a “image rotation parallel movement” C7 shown in FIG. 4 into a pixel address on a correction screen which is rotated by a roll angle and translated by a pan movement amount. .

【図9】 図4に示す「補正画像メモリイニシャライ
ズ」C6の内容を示すフロ−チャ−トである。
9 is a flowchart showing the contents of "corrected image memory initialization" C6 shown in FIG.

【図10】 図4に示す「画像回転平行移動」C7の内
容を示すフロ−チャ−トである。
FIG. 10 is a flowchart showing the contents of “image rotation parallel movement” C7 shown in FIG.

【図11】 図4に示す「補間」C8の内容の一部を示
すフロ−チャ−トである。
11 is a flowchart showing a part of the contents of "interpolation" C8 shown in FIG.

【図12】 図4に示す「補間」C8の内容の残りの部
分を示すフロ−チャ−トである。
12 is a flowchart showing the remaining part of the contents of "interpolation" C8 shown in FIG.

【図13】 図3に示す「自車レ−ン検出」Dの内容を
示すフロ−チャ−ト(サブル−チン)である。
FIG. 13 is a flowchart (subroutine) showing the contents of “own vehicle lane detection” D shown in FIG.

【図14】 (a)は図13に示す「特徴点検出ウィン
ドウ2セット」D1の内容を示すフロ−チヤ−ト、
(b)は前記補正画面上に設定するウィンドウ2の領域
を示す平面図である。
14 (a) is a flowchart showing the contents of "two sets of feature point detection windows" D1 shown in FIG.
FIG. 6B is a plan view showing an area of the window 2 set on the correction screen.

【図15】 図13に示す「左右白線検出」D3の内容
を示すフロ−チャ−トである。
FIG. 15 is a flowchart showing the contents of “left / right white line detection” D3 shown in FIG.

【図16】 前記補正画面の画像とウィンドウ2を示す
平面図である。
16 is a plan view showing an image of the correction screen and a window 2. FIG.

【図17】 図15に示す「直線当てはめ」63Rの内
容の一部を示すフロ−チャ−トである。
FIG. 17 is a flowchart showing a part of the content of “straight line fitting” 63R shown in FIG.

【図18】 図15に示す「直線当てはめ」63Rの内
容の残りの部分を示すフロ−チャ−トである。
FIG. 18 is a flowchart showing the remaining part of the contents of “straight line fitting” 63R shown in FIG.

【図19】 図17および図18に示す「ハフグリッド
クリア(HG1)」65,「ハフグリッドクリア(HG
2)」70および「ハフグリッドクリア(HG3)」7
5の内容を、汎用形式で示すフロ−チャ−トであり、図
19中のnは、1,2又は3である。
FIG. 19 shows “Hough grid clear (HG1)” 65 and “Hough grid clear (HG) shown in FIGS. 17 and 18.
2) ”70 and“ Hough Grid Clear (HG3) ”7
5 is a flow chart showing the contents of 5 in a general-purpose format, and n in FIG. 19 is 1, 2, or 3.

【図20】 図17および図18に示す「ハフ変換(H
G1)」67,「ハフ変換(HG2)」72および「ハ
フ変換(HG3)」77の内容を、汎用形式で示すフロ
−チャ−トであり、図20中のnは、1,2又は3であ
る。
FIG. 20 shows the “Hough transform (H
G1) "67," Hough transform (HG2) "72 and" Hough transform (HG3) "77 are flow charts in a general-purpose format, and n in FIG. 20 is 1, 2 or 3 Is.

【図21】 図17および図18に示す「最大点探索
(HG1)」68,「最大点探索(HG2)」73およ
び「最大点探索(HG3)」78の内容を、汎用形式で
示すフロ−チャ−トであり、図21中のnは、1,2又
は3である。
FIG. 21 is a flow chart showing the contents of “maximum point search (HG1)” 68, “maximum point search (HG2)” 73 and “maximum point search (HG3)” 78 shown in FIGS. 17 and 18 in a general-purpose format. It is a chart, and n in FIG. 21 is 1, 2, or 3.

【図22】 図13に示す「無限遠点計算」D4の内容
を示すフロ−チャ−トである。
22 is a flowchart showing the contents of "infinity point calculation" D4 shown in FIG.

【図23】 図1に示すテレビカメラ6b内のレンズお
よび撮像素子と車両前方の先行車両との幾何学的関係を
示す側面概要図である。
FIG. 23 is a schematic side view showing the geometrical relationship between the lens and the image pickup element in the television camera 6b shown in FIG. 1 and a preceding vehicle ahead of the vehicle.

【図24】 図3に示す「隣接レ−ン推定」Fの内容を
示すフロ−チャ−トである。
FIG. 24 is a flowchart showing the contents of “adjacent lane estimation” F shown in FIG.

【図25】 前記補正画面上の、前記「隣接レ−ン推
定」Fで推定した隣接レ−ンを斜線で塗りつぶして示す
平面図である。
FIG. 25 is a plan view showing the adjacent lanes estimated by the “adjacent lane estimation” F on the correction screen, which are filled with diagonal lines.

【図26】 図3に示す「ウィンドウ2−1内の車両検
出」DET1の中の、図28,図47および図50に示
す車両認識および測距H,IおよびJで物体検出を行な
う探索領域を縦線および横線の塗りつぶしで示す平面図
である。
FIG. 26 is a search area in the “vehicle detection within window 2-1” DET1 shown in FIG. 3 for performing object recognition by vehicle recognition and distance measurement H, I, and J shown in FIGS. 28, 47, and 50. FIG. 5 is a plan view showing a vertical line and a horizontal line with a black line.

【図27】 (a)は図3に示す「ウィンドウ2−2内
の車両検出」DET2で物体検出を行なう探索領域を縦
線および横線の塗りつぶしで示す平面図、(b)は図3
に示す「ウィンドウ2−2内の車両検出」DET3で物
体検出を行なう探索領域を縦線および横線の塗りつぶし
で示す平面図である。
FIG. 27 (a) is a plan view showing a search area for detecting an object in the “vehicle detection in window 2-2” DET2 shown in FIG. 3 by filling vertical and horizontal lines, and FIG.
FIG. 8 is a plan view showing a search area in which an object is detected by “vehicle detection in window 2-2” DET3 shown in FIG.

【図28】 図3に示す「自車レ−ン先行車両認識及び
測距」Hの内容を示すフロ−チャ−トである。
28 is a flowchart showing the contents of "recognition and distance measurement of preceding vehicle by own vehicle lane" H shown in FIG.

【図29】 図28に示す「車両候補位置の検出1」H
1の内容を示すフロ−チャ−トである。
FIG. 29 shows “Detection of candidate vehicle position 1” H shown in FIG. 28.
It is a flowchart showing the contents of 1.

【図30】 図29に示す「特徴点メモリクリア」13
1の内容を示すフロ−チャ−トである。
FIG. 30 is a “feature point memory clear” 13 shown in FIG. 29.
It is a flowchart showing the contents of 1.

【図31】 図29に示す「水平特徴点の検出1」13
2の内容を示すフロ−チャ−トである。
[FIG. 31] “Horizontal feature point detection 1” 13 shown in FIG. 29
2 is a flowchart showing the contents of 2.

【図32】 (a)は図31に示す「1ライン水平特徴
点の検出」151Lの内容を示すフロ−チャ−ト、
(b)は水平特徴点の検出のため前記補正画面のY方向
の画像デ−タの微分値を算出するときの、注目点(算出
点画素:×印)と、参照点(参照画素:白四角)を示す
平面図である。
32 (a) is a flow chart showing the contents of "detection of 1-line horizontal feature point" 151L shown in FIG.
(B) is a target point (calculation point pixel: X mark) and a reference point (reference pixel: white) when calculating the differential value of the image data in the Y direction of the correction screen for detecting the horizontal feature point. It is a top view showing a square.

【図33】 図29に示す「ヒストグラムメモリクリ
ア」133の内容を示すフロ−チャ−トである。
FIG. 33 is a flowchart showing the contents of the “histogram memory clear” 133 shown in FIG. 29.

【図34】 図29に示す「y方向ヒストグラム作成」
134の内容を示すフロ−チャ−トである。
FIG. 34 “y-direction histogram creation” shown in FIG.
It is a flowchart showing the contents of 134.

【図35】 図29に示す「y方向ヒストグラム作成」
134の内容を示すフロ−チャ−トである。
FIG. 35 is a “y-direction histogram creation” shown in FIG. 29.
It is a flowchart showing the contents of 134.

【図36】 図35に示す「レ−ン左端点検出」176
および「レ−ン右端点検出」177の内容を示すフロ−
チャ−トである。
FIG. 36 is a “lane left end point detection” 176 shown in FIG.
And a flow showing the contents of "lane right end point detection" 177.
It is a chart.

【図37】 図29に示す「x方向重心計算」136の
内容を示すフロ−チャ−トである。
37 is a flowchart showing the contents of "calculation of center of gravity in x direction" 136 shown in FIG.

【図38】 図28に示す「車両左右端の検出」H3の
内容を示すフロ−チャ−トである。
FIG. 38 is a flowchart showing the contents of “Detect left and right ends of vehicle” H3 shown in FIG. 28.

【図39】 図38に示す「車両左右端位置推定」20
1の内容を示すフロ−チャ−トである。
[FIG. 39] “Vehicle left and right end position estimation” 20 shown in FIG.
It is a flowchart showing the contents of 1.

【図40】 図38に示す「左端垂直特徴点検出」20
3Lの内容を示すフロ−チャ−トである。
[FIG. 40] “Left edge vertical feature point detection” 20 shown in FIG. 38
It is a flowchart showing the contents of 3L.

【図41】 図38に示す「x方向ヒストグラム作成」
205Lの内容を示すフロ−チャ−トである。
FIG. 41 “x-direction histogram creation” shown in FIG.
It is a flowchart showing the contents of 205L.

【図42】 図38に示す「x方向最大点検出」206
Lの内容を示すフロ−チャ−トである。
42 shows the "maximum point detection in x direction" 206 shown in FIG.
It is a flowchart showing the contents of L.

【図43】 図38に示す「右端垂直特徴点検出」20
3Rの内容を示すフロ−チャ−トである。
FIG. 43 shows “right end vertical feature point detection” 20 shown in FIG.
It is a flowchart showing the contents of 3R.

【図44】 図28に示す「車両の検定」H4の内容を
示すフロ−チャ−トである。
FIG. 44 is a flowchart showing the contents of “Vehicle verification” H4 shown in FIG.

【図45】 図28に示す「車間距離計算」H6の内容
を示すフロ−チャ−トである。
FIG. 45 is a flowchart showing the contents of “vehicle distance calculation” H6 shown in FIG. 28.

【図46】 図28に示す「車幅学習計算」H7の内容
を示すフロ−チャ−トである。
FIG. 46 is a flowchart showing the contents of “vehicle width learning calculation” H7 shown in FIG.

【図47】 図3に示す「右隣接レ−ン車両認識及び測
距」Iの内容を示すフロ−チャ−トである。
47 is a flowchart showing the contents of "right adjacent lane vehicle recognition and distance measurement" I shown in FIG.

【図48】 図47に示す「車両候補の位置の検出2」
I1の内容を示すフロ−チャ−トである。
[FIG. 48] “Detection of vehicle candidate position 2” shown in FIG. 47
It is a flowchart showing the contents of I1.

【図49】 図48に示す「水平特徴点の検出2」25
8の内容を示すフロ−チャ−トである。
[FIG. 49] “Horizontal feature point detection 2” 25 shown in FIG.
8 is a flowchart showing the contents of No. 8.

【図50】 図3に示す「左隣接レ−ン車両認識及び測
距」Jの内容を示すフロ−チャ−トである。
50 is a flowchart showing the contents of "Left adjacent lane vehicle recognition and distance measurement" J shown in FIG.

【図51】 図50に示す「車両候補の位置の検出3」
J1の内容を示すフロ−チャ−トである。
51. "Detection position 3 of vehicle candidate" shown in FIG.
It is a flowchart showing the contents of J1.

【図52】 図51に示す「水平特徴点の検出3」27
7の内容を示すフロ−チャ−トである。
FIG. 52 shows “Horizontal feature point detection 3” 27 shown in FIG.
7 is a flowchart showing the contents of 7.

【図53】 テレビカメラ6bの撮影画像デ−タに基づ
いた、図1に示すマイクロプロセッサ(CPU)1の、
第2実施例における、自車両前方の路面上白線および先
行車両を検出する処理の概要を示すフロ−チャ−トであ
る。
FIG. 53 is a block diagram of the microprocessor (CPU) 1 shown in FIG. 1, which is based on image data captured by the television camera 6b.
8 is a flowchart showing an outline of processing for detecting a white line on the road surface ahead of the own vehicle and a preceding vehicle in the second embodiment.

【符号の説明】[Explanation of symbols]

1:マイクロプロセッサ(CPU) 2:ROM 3:RAM 4〜6:入出力ポ
−ト 4a:CRTドライバ 4b:CRT 5a:イメ−ジメモリ 6a:カメラコ
ントロ−ラ 6b:テレビカメラ 6c:A/Dコ
ンバ−タ 7:通信コントロ−ラ 8:ホストマイク
ロプロセッサ(CPU)
1: Microprocessor (CPU) 2: ROM 3: RAM 4 to 6: Input / output port 4a: CRT driver 4b: CRT 5a: Image memory 6a: Camera controller 6b: Television camera 6c: A / D converter -Ta 7: Communication controller 8: Host microprocessor (CPU)

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 H04N 1/40 9068−5C ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 5 Identification code Office reference number FI technical display location H04N 1/40 9068-5C

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】車両に搭載された撮影装置で得た、車両前
方の路面を含むシ−ンをX,Y直交座標系画面に表わす
画像デ−タの、所定方向の微分値を算出してそれが設定
値以上のX,Y直交座標上の位置を特徴点(Xs,Ys)とし
て、複数個の特徴点(Xs,Ys)の連なりを表わす直線を求
めて、前記シ−ン内の、前記車両が走行中のレ−ンの
左,右端白線を検出し、左,右端白線を表わす直線を基
準にした前記画面上の所定領域で物体検出を行なう、車
両前方の物体検出方法において、 画面上の、車両前方の路面が存在する領域を、車両の進
行方向で複数個に分割し、車両に近い分割領域から順次
に、分割領域における走行中のレ−ンの左,右端白線の
検出を行ない、少くとも白線検出を行なった分割領域内
の、左,右端白線の間の走行中レ−ン領域の物体検出を
行なうことを特徴とする、車両前方の物体検出方法。
1. A differential value in a predetermined direction of image data representing a scene including a road surface in front of the vehicle, which is obtained by an image pickup device mounted on the vehicle, on an X, Y Cartesian coordinate system screen is calculated. Using a position on the X, Y Cartesian coordinates above the set value as a feature point (Xs, Ys), a straight line representing a series of a plurality of feature points (Xs, Ys) is obtained, and within the scene, A method for detecting an object in front of a vehicle, which detects white lines on the left and right ends of a running lane of the vehicle and performs object detection in a predetermined area on the screen based on straight lines representing the left and right ends The upper area where the road surface in front of the vehicle exists is divided into a plurality of areas in the traveling direction of the vehicle, and the left and right white lines of the running lane in the divided areas are sequentially detected from the divided areas close to the vehicle. Objects in the running lane area between the left and right white lines in the divided area where at least white line detection was performed And performing output, the vehicle in front of the object detection method.
【請求項2】車両に搭載された撮影装置で得た、車両前
方の路面を含むシ−ンをX,Y直交座標系画面に表わす
画像デ−タの、所定方向の微分値を算出してそれが設定
値以上のX,Y直交座標上の位置を特徴点(Xs,Ys)とし
て、複数個の特徴点(Xs,Ys)の連なりを表わす直線を求
めて、前記シ−ン内の、前記車両が走行中のレ−ンの
左,右端白線を検出し、左,右端白線を表わす直線を基
準にした前記画面上の所定領域で物体検出を行なう、車
両前方の物体検出方法において、 画面上の、車両前方の路面が存在する領域を、車両の進
行方向で複数個に分割し、車両に近い分割領域から順次
に、分割領域における走行中のレ−ンの左,右端白線の
検出を行ない、隣り合う分割領域で検出した左端白線の
交点および右端白線の交点を算出し、車両の進行方向で
隣り合う交点を結ぶ左端側直線と右端側直線の間の領域
の物体検出を行なうことを特徴とする、車両前方の物体
検出方法。
2. A differential value in a predetermined direction of image data representing a scene including a road surface in front of the vehicle, which is obtained by an image pickup device mounted on the vehicle, on an X, Y orthogonal coordinate system screen is calculated. Using a position on the X, Y Cartesian coordinates above the set value as a feature point (Xs, Ys), a straight line representing a series of a plurality of feature points (Xs, Ys) is obtained, and within the scene, A method for detecting an object in front of a vehicle, which detects white lines on the left and right ends of a running lane of the vehicle and performs object detection in a predetermined area on the screen based on straight lines representing the left and right ends The upper area where the road surface in front of the vehicle exists is divided into a plurality of areas in the traveling direction of the vehicle, and the left and right white lines of the running lane in the divided areas are sequentially detected from the divided areas close to the vehicle. The intersection of the leftmost white line and the intersection of the rightmost white line detected in the adjacent divided areas is calculated, and the vehicle progresses. And performing object detection in the region between the left side line and the right end line connecting the intersection points adjacent in countercurrent, the vehicle ahead of the object detection method.
【請求項3】特徴点(Xs,Ys)のそれぞれを、ρ,θ極座
標系の極座標値(ρ,θ)に変換し、極座標値(ρ,
θ)に割当てた記憶手段の度数デ−タをインクレメント
し、度数デ−タが最大値となった極座標値(ρm,θm)
を摘出してこの極座標値(ρm,θm)で表わされる直線
を、左,右端白線を表わす二直線の一方として決定す
る、請求項1又は請求項2記載の、車両前方の物体検出
方法。
3. The characteristic points (Xs, Ys) are converted into polar coordinate values (ρ, θ) of a ρ, θ polar coordinate system, and polar coordinate values (ρ,
θ) increments the frequency data of the storage means and polar coordinate value (ρm, θm) at which the frequency data becomes the maximum value
The object detection method in front of the vehicle according to claim 1 or 2, wherein the straight line represented by the polar coordinate values (ρm, θm) is determined as one of two straight lines representing the left and right white lines.
【請求項4】前記極座標変換を複数回繰返し、この繰返
しにおいてρ,θは、先行の極座標変換では低密度かつ
広い範囲とし、後行の極座標変換では高密度かつ先行の
極座標変換で得た極座標値(ρm,θm)を中心とする狭
い範囲とすることを特徴とする、請求項3記載の、車両
前方の物体検出方法。
4. The polar coordinate conversion is repeated a plurality of times, and in this repetition, ρ and θ have a low density and a wide range in the preceding polar coordinate conversion, and in the subsequent polar coordinate conversion, high density and the polar coordinate obtained by the preceding polar coordinate conversion. 4. The object detection method in front of the vehicle according to claim 3, wherein the range is a narrow range centered on the value (ρm, θm).
【請求項5】第1回の極座標変換では、特徴点(Xs,Ys)
のそれぞれを、X,Y直交座標系の(Xch,Ych)を原点と
するρ,θ極座標系に対して ρ=r/d1+c1, θ=a1・t+b1,t=0,1,2,・・・ なる関係のr,t極座標系の座標値(r,t)に、 r/d1+c1= (Xs−Xch)・cos(a1・t+b1) +(Ych−Ys)・sin(a1・t+b1) なる関係で変換し、極座標値(r,t)に割当てた記憶
手段の度数デ−タをインクレメントし、度数デ−タが最
大値となった座標値(rm1,tm1)を摘出し、第2回の
極座標変換では、特徴点(Xs,Ys)のそれぞれを、X,Y
直交座標系の(Xch,Ych)を原点とするρ,θ極座標系に
対して ρ=r/d2+c2, θ=a2・t+b2,t=0,1,2,・・・ なる関係のr,t極座標系の座標値(r,t)に、 r/d2+c2= (Xs−Xch)・cos(a2・t+b2) +(Ych−Ys)・sin(a2・t+b2) なる関係で変換し、これにおいてa2はa1より小さい
値、b2はb1よりもtm1に近い値、c2はc1よりもrm1
に近い値、かつd2はd1よりも大きい値とし、極座標値
(r,t)に割当てた記憶手段の度数デ−タをインクレ
メントし、度数デ−タが最大値となった座標値(rm2,
tm2)を摘出する、請求項4記載の、車両前方の物体検
出方法。
5. A feature point (Xs, Ys) in the first polar coordinate transformation.
Ρ = r / d 1 + c 1 , θ = a 1 · t + b 1 , t = 0,1 with respect to the ρ and θ polar coordinate systems with the origin being (Xch, Ych) of the X and Y orthogonal coordinate system. , 2, ... In the coordinate values (r, t) of the r, t polar coordinate system, r / d 1 + c 1 = (Xs−Xch) · cos (a 1 · t + b 1 ) + (Ych−Ys and in the data increment, power data - -) · sin (converted by a 1 · t + b 1) the relationship, power data storage means assigned to the polar coordinate value (r, t) coordinates data is the maximum value (Rm1, tm1) is extracted, and in the second polar coordinate conversion, each of the feature points (Xs, Ys) is converted into X, Y.
Ρ with the origin at (Xch, Ych) in Cartesian coordinate system, θ for polar coordinate system ρ = r / d 2 + c 2 , θ = a 2 · t + b 2 , t = 0,1,2, ... In the coordinate value (r, t) of the relational r, t polar coordinate system, r / d 2 + c 2 = (Xs−Xch) · cos (a 2 · t + b 2 ) + (Ych−Ys) · sin (a 2 ·) t 2 + b 2 ), where a 2 is smaller than a 1 , b 2 is closer to tm 1 than b 1 and c 2 is rm 1 rather than c 1.
And the d 2 is larger than the d 1 and the frequency data of the storage means assigned to the polar coordinate value (r, t) is incremented, and the coordinate data has the maximum value. (Rm2,
5. The object detection method in front of the vehicle according to claim 4, wherein tm2) is extracted.
【請求項6】第3回の極座標変換で、特徴点(Xs,Ys)の
それぞれを、X,Y直交座標系の(Xch,Ych)を原点とす
るρ,θ極座標系に対して ρ=r/d3+c3, θ=a3・t+b3,t=0,1,2,・・・ なる関係のr,t極座標系の座標値(r,t)に、 r/d3+c3= (Xs−Xch)・cos(a3・t+b3) +(Ych−Ys)・sin(a3・t+b3) なる関係で変換し、これにおいてa3はa2より小さい
値、b3はb2よりもtm2に近い値、c3はc2よりもrm2
に近い値、かつd3はd2よりも大きい値とし、極座標値
(r,t)に割当てた記憶手段の度数デ−タをインクレ
メントし、度数デ−タが最大値となった座標値(rm3,
tm3)を摘出する、請求項5記載の、車両前方の物体検
出方法。
6. In the third polar coordinate transformation, each of the feature points (Xs, Ys) is ρ = θ with respect to the θ polar coordinate system whose origin is (Xch, Ych) in the X, Y orthogonal coordinate system. r / d 3 + c 3 , θ = a 3 · t + b 3 , t = 0,1,2, ... In the coordinate values (r, t) of the r, t polar coordinate system, r / d 3 + c 3 = (Xs-Xch) · cos (a 3 · t + b 3) + (Ych-Ys) · sin converted in (a 3 · t + b 3 ) the relationship, which in a 3 is a 2 smaller value, b 3 is b 2 values close to tm2 than, c 3 is than c 2 rm2
A value greater than the value close and d 3 is d 2, a polar coordinate value (r, t) power data storage means assigned to - a motor incrementing, power data - coordinates data is the maximum value (Rm3,
The object detection method in front of the vehicle according to claim 5, wherein tm3) is extracted.
JP5007018A 1993-01-19 1993-01-19 Method of detecting object existing ahead of vehicle Pending JPH06215290A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5007018A JPH06215290A (en) 1993-01-19 1993-01-19 Method of detecting object existing ahead of vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5007018A JPH06215290A (en) 1993-01-19 1993-01-19 Method of detecting object existing ahead of vehicle

Publications (1)

Publication Number Publication Date
JPH06215290A true JPH06215290A (en) 1994-08-05

Family

ID=11654305

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5007018A Pending JPH06215290A (en) 1993-01-19 1993-01-19 Method of detecting object existing ahead of vehicle

Country Status (1)

Country Link
JP (1) JPH06215290A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5710565A (en) * 1995-04-06 1998-01-20 Nippondenso Co., Ltd. System for controlling distance to a vehicle traveling ahead based on an adjustable probability distribution
JP2012511754A (en) * 2008-12-10 2012-05-24 ニューソフト コーポレーション Method and apparatus for dividing an obstacle
US10002433B2 (en) 2012-12-26 2018-06-19 Nippon Soken, Inc. Boundary line recognition apparatus and branch road determination apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5710565A (en) * 1995-04-06 1998-01-20 Nippondenso Co., Ltd. System for controlling distance to a vehicle traveling ahead based on an adjustable probability distribution
JP2012511754A (en) * 2008-12-10 2012-05-24 ニューソフト コーポレーション Method and apparatus for dividing an obstacle
US8463039B2 (en) 2008-12-10 2013-06-11 Neusoft Corporation Method and device for partitioning barrier
US10002433B2 (en) 2012-12-26 2018-06-19 Nippon Soken, Inc. Boundary line recognition apparatus and branch road determination apparatus
US10891738B2 (en) 2012-12-26 2021-01-12 Nippon Soken, Inc. Boundary line recognition apparatus and branch road determination apparatus

Similar Documents

Publication Publication Date Title
JPH06213660A (en) Detecting method for approximate straight line of image
CN107577988B (en) Method, device, storage medium and program product for realizing side vehicle positioning
EP3566903B1 (en) Method and apparatus for vehicle position detection
US5892855A (en) Apparatus for detecting an object located ahead of a vehicle using plural cameras with different fields of view
JP3125550B2 (en) Vehicle forward recognition device and vehicle travel control device
JP3268325B2 (en) Preprocessing method of on-vehicle recognition target image data
US7006667B2 (en) Apparatus and method for detecting road white line for automotive vehicle
US20080231710A1 (en) Method and apparatus for camera calibration, and vehicle
JPH0935197A (en) Vehicle recognizing method
JPH0792423B2 (en) Headlight optical axis adjustment method
CN111160070A (en) Vehicle panoramic image blind area eliminating method and device, storage medium and terminal equipment
JP3143814B2 (en) Method for detecting the distance of an object ahead of the vehicle
US8044998B2 (en) Sensing apparatus and method for vehicles
US20020196423A1 (en) Range finder for finding range by image realization
JPH1049689A (en) Picture processor
JP3588728B2 (en) On-street line detector in front of vehicle
JPH0935059A (en) Discriminating device for illuminance on moving body
JPH06215290A (en) Method of detecting object existing ahead of vehicle
JP3146427B2 (en) Object detection method in front of vehicle
JPH06213659A (en) Detecting method for object in front of vehicle
CN116311136A (en) Lane line parameter calculation method for driving assistance
JP3456843B2 (en) Front inter-vehicle distance measurement device
JPH08159716A (en) Calculation method of vanishing point of road, and position/attitude measuring apparatus for vehicle
JP3416921B2 (en) Steer type photographing device
JP2662583B2 (en) On-vehicle distance detection device