JP3762406B2 - Vehicle travel guidance device - Google Patents

Vehicle travel guidance device Download PDF

Info

Publication number
JP3762406B2
JP3762406B2 JP2003420060A JP2003420060A JP3762406B2 JP 3762406 B2 JP3762406 B2 JP 3762406B2 JP 2003420060 A JP2003420060 A JP 2003420060A JP 2003420060 A JP2003420060 A JP 2003420060A JP 3762406 B2 JP3762406 B2 JP 3762406B2
Authority
JP
Japan
Prior art keywords
distance
image
dimensional
vehicle
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2003420060A
Other languages
Japanese (ja)
Other versions
JP2004168304A (en
Inventor
英明 土屋
圭二 塙
敬二 実吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK filed Critical Fuji Jukogyo KK
Priority to JP2003420060A priority Critical patent/JP3762406B2/en
Publication of JP2004168304A publication Critical patent/JP2004168304A/en
Application granted granted Critical
Publication of JP3762406B2 publication Critical patent/JP3762406B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Description

本発明は、峡路通過時の運転者の負担を軽減し、安全を確保する車輌用走行案内装置に関する。   The present invention relates to a vehicle travel guide device that reduces the burden on a driver when passing through a strait and ensures safety.

従来、自動車等の車輌においては、塀、ガードレール、電柱、駐車車輌等が多数存在する狭路を通過する際の運転者の感覚を補うものとして、例えば、実開平5−68742号公報に開示されているようなコーナーポールや、棒状の部材が障害物に触れるとスイッチがオンする接触式スイッチからなる触覚センサ等を車体に取り付ける場合があり、これにより、車幅や左右障害物との間の隙間を確認することができる。   Conventionally, in a vehicle such as an automobile, it is disclosed in, for example, Japanese Utility Model Laid-Open No. 5-68742 as a supplement to the driver's feeling when passing through a narrow road where a large number of eaves, guardrails, utility poles, parked vehicles, etc. exist. A tactile sensor such as a corner pole or a contact type switch that turns on when a bar-shaped member touches an obstacle may be attached to the vehicle body. A gap can be confirmed.

また、最近では、車輌の側面や四隅に超音波センサを取り付け、超音波を発射して障害物からの反射波を受信することにより距離を計測し、計測した距離を運転者に知らせて狭路を通過する際の負担を軽減しようとする技術が開発されている。
実開平5−68742号公報
Recently, ultrasonic sensors are attached to the side and four corners of a vehicle, and the distance is measured by emitting ultrasonic waves and receiving reflected waves from obstacles. A technology has been developed to reduce the burden of passing through the road.
Japanese Utility Model Publication No. 5-68742

しかしながら、前述のコーナーポールのように車体外部に目印となるようなものを取り付ける場合には、運転者の慣れを必要とするため、運転者の負担軽減効果が少ない。また、触覚センサのような接触式のものでは、物体に接触するまで位置の確認ができず、障害物に接触してからではハンドル操作が間に合わないといった事態が生じる。   However, in the case of attaching a mark such as the aforementioned corner pole outside the vehicle body, the driver's habituation is required, so the driver's burden reduction effect is small. Further, in the case of a contact type sensor such as a tactile sensor, the position cannot be confirmed until it comes into contact with an object, and there is a situation in which the handle operation cannot be performed in time after touching an obstacle.

さらに、超音波を用いる技術では、空間分解能が劣るため障害物の位置関係を知ることができないばかりでなく、歩行者の衣服や滑らかな壁等からは発射した超音波が戻ってこないという物体依存性があり、道路上に存在する様々な立体物に対処することは困難である。   Furthermore, in the technology using ultrasonic waves, the spatial resolution is inferior, so it is not only possible to know the positional relationship of obstacles, but also the object dependence that the emitted ultrasonic waves do not return from pedestrian clothes or smooth walls. It is difficult to deal with various three-dimensional objects existing on the road.

本発明は上記事情に鑑みてなされたもので、車輌が狭路を通過する前に進行方向に存在する様々な立体物を確実に検出し、検出した立体物と自車輌との間の隙間を運転者に知らせることにより、運転者の負担を軽減して安全を確保することのできる車輌用走行案内装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and reliably detects various three-dimensional objects existing in the traveling direction before the vehicle passes through a narrow road, and detects the gap between the detected three-dimensional object and the vehicle. It is an object of the present invention to provide a vehicle travel guide device that can reduce the burden on the driver and ensure safety by notifying the driver.

上記目的を達成するため、本発明による車輌用走行案内装置は、車輌に搭載した撮像系で撮像した車外の対象のステレオ画像対を処理し、このステレオ画像対の対応位置のずれ量から三角測量の原理によって画像全体に渡る距離分布を求めるステレオ画像処理手段と、前記ステレオ画像処理手段からの距離分布の情報に対応する被写体の各部分の3次元位置を計算し、計算した3次元位置の情報を用いて複数の立体物を検出する立体物検出手段と、前記立体物検出手段で検出した複数の立体物の位置情報に基づき、複数の立体物の自車輌側の縁と自車輌側部の延長線との間の最近接距離を隙間距離として左右それぞれに算出する隙間距離算出手段と、前記隙間距離算出手段で算出した隙間距離に係わる情報を表示するディスプレイ装置とを備えたことを特徴とする。
また、本発明による車輌用走行案内装置は、車輌に搭載した撮像系で撮像した車外の対象のステレオ画像対を処理し、このステレオ画像対の対応位置のずれ量から三角測量の原理によって距離分布を求めるステレオ画像処理手段と、前記ステレオ画像処理手段からの距離分布の情報に対応する被写体の3次元位置を計算し、複数の立体物の位置情報を検出する立体物検出手段と、前記立体物検出手段で検出した複数の立体物の位置情報に基づき、複数の立体物の自車輌側の縁と自車輌側部の延長線との間の最近接距離を隙間距離として左右それぞれに算出する隙間距離算出手段と、前記隙間距離算出手段で算出した隙間距離に係わる情報を表示するディスプレイ装置とを備えたことを特徴とする。
In order to achieve the above object, a vehicle travel guidance apparatus according to the present invention processes a stereo image pair of an object outside the vehicle imaged by an imaging system mounted on the vehicle, and performs triangulation from the shift amount of the corresponding position of the stereo image pair. The stereo image processing means for obtaining the distance distribution over the entire image according to the principle of the above, the three-dimensional position of each part of the subject corresponding to the distance distribution information from the stereo image processing means is calculated, and the calculated three-dimensional position information Based on the position information of the three-dimensional object detected by the three-dimensional object detection means and the edge of the vehicle side of the three-dimensional object and the side of the vehicle side Bei a gap distance calculating means for calculating the left and right, and a display device for displaying information relating to the clearance distance calculated by the gap distance calculation means closest distance as the gap distance between the extension line Characterized in that was.
Further, the vehicle travel guidance apparatus according to the present invention processes a stereo image pair of a target outside the vehicle imaged by an imaging system mounted on the vehicle, and the distance distribution by the principle of triangulation from the shift amount of the corresponding position of the stereo image pair. A three-dimensional object detection means for calculating a three-dimensional position of a subject corresponding to distance distribution information from the stereo image processing means and detecting position information of a plurality of three-dimensional objects; Based on position information of a plurality of three-dimensional objects detected by the detecting means, a gap that calculates the closest distance between the vehicle-side edge of the plurality of three-dimensional objects and the extension line of the own vehicle side as a gap distance to the left and right respectively A distance calculating means and a display device for displaying information related to the gap distance calculated by the gap distance calculating means are provided.

本発明の車輌用走行案内装置は、車輌が狭路を通過する前に進行方向に存在する様々な立体物を確実に検出して自車輌との隙間距離を運転者に知らせることができ、運転者の負担を軽減して安全を確保することができる等優れた効果が得られる。   The vehicle travel guide device of the present invention can reliably detect various three-dimensional objects existing in the traveling direction before the vehicle passes through a narrow road, and can inform the driver of the clearance distance from the vehicle. It is possible to obtain excellent effects such as reducing the burden on the user and ensuring safety.

以下、図面を参照して本発明の実施の形態を説明する。図面は本発明の一実施例に係り、図1は走行案内装置の全体構成図、図2は走行案内装置の回路ブロック図、図3はディスプレイの画面を示す説明図、図4は車輌の正面図、図5はカメラと被写体との関係を示す説明図、図6はイメージプロセッサの詳細回路図、図7はシティブロック距離計算回路の説明図、図8は最小値検出回路のブロック図、図9は車載のCCDカメラで撮像した画像の例を示す説明図、図10は距離画像の例を示す説明図、図11は車輌の上面図、図12は車輌の側面図、図13は距離画像処理用コンピュータの機能ブロック図、図14は画像の区分方法を示す説明図、図15は検出物体とヒストグラムの関係を示す説明図、図16は物体の存在領域の検出結果と検出距離の例を示す説明図、図17は物体検出用の3次元ウインドウの形状を示す説明図、図18は物体検出用の2次元ウインドウの形状を示す説明図、図19は物体の輪郭を構成するデータの例を示す説明図、図20は物体の輪郭像と検出された外形寸法の例を示す説明図、図21は側壁検出における探索領域の形状を示す説明図、図22は画像上の側壁探索領域を示す説明図、図23は立体物データの分布状況を示す説明図、図24はハフ変換での直線の想定を示す説明図、図25はパラメータ空間の投票領域を示す説明図、図26は側壁候補領域を示す説明図、図27はヒストグラムと側壁の存在範囲の関係を示す説明図、図28は側壁の検出結果を示す説明図、図29は隙間距離算出の説明図、図30はイメージプロセッサの動作を示すフローチャート、図31はシフトレジスタ内の保存順序を示す説明図、図32はシティブロック距離計算回路の動作を示すタイミングチャート、図33はずれ量決定部の動作を示すタイミングチャート、図34はイメージプロセッサの全体の動作を示すタイミングチャート、図35及び図36は物体検出処理のフローチャート、図37及び図38は側壁検出処理のフローチャート、図39は隙間距離算出処理のフローチャートである。   Embodiments of the present invention will be described below with reference to the drawings. The drawings relate to an embodiment of the present invention, FIG. 1 is an overall configuration diagram of a travel guide device, FIG. 2 is a circuit block diagram of the travel guide device, FIG. 3 is an explanatory view showing a display screen, and FIG. FIG. 5 is an explanatory diagram showing the relationship between the camera and the subject, FIG. 6 is a detailed circuit diagram of the image processor, FIG. 7 is an explanatory diagram of the city block distance calculation circuit, and FIG. 8 is a block diagram of the minimum value detection circuit. 9 is an explanatory view showing an example of an image taken by an in-vehicle CCD camera, FIG. 10 is an explanatory view showing an example of a distance image, FIG. 11 is a top view of the vehicle, FIG. 12 is a side view of the vehicle, and FIG. FIG. 14 is an explanatory diagram showing the image segmentation method, FIG. 15 is an explanatory diagram showing the relationship between the detected object and the histogram, and FIG. 16 is an example of the detection result of the existence region of the object and the detection distance. FIG. 17 shows 3 for object detection. 18 is an explanatory diagram showing the shape of the original window, FIG. 18 is an explanatory diagram showing the shape of a two-dimensional window for object detection, FIG. 19 is an explanatory diagram showing an example of data constituting the contour of the object, and FIG. 20 is an outline image of the object FIG. 21 is an explanatory diagram showing the shape of the search area in the side wall detection, FIG. 22 is an explanatory diagram showing the side wall search area on the image, and FIG. 23 is the distribution of the three-dimensional object data. FIG. 24 is an explanatory diagram showing the assumption of a straight line in the Hough transform, FIG. 25 is an explanatory diagram showing a voting region in the parameter space, FIG. 26 is an explanatory diagram showing a sidewall candidate region, and FIG. FIG. 28 is an explanatory diagram showing the detection result of the side wall, FIG. 29 is an explanatory diagram of calculating the gap distance, FIG. 30 is a flowchart showing the operation of the image processor, and FIG. 31 is in the shift register. Maintenance FIG. 32 is a timing chart showing the operation of the city block distance calculating circuit, FIG. 33 is a timing chart showing the operation of the shift amount determining unit, FIG. 34 is a timing chart showing the overall operation of the image processor, and FIG. 36 and 36 are flowcharts of the object detection process, FIGS. 37 and 38 are flowcharts of the side wall detection process, and FIG. 39 is a flowchart of the gap distance calculation process.

図1において、符号1は自動車等の車輌であり、この車輌1に、運転者に対する高度な支援制御を行なうアクティブドライブアシスト(ADA)システムの一機能を担う走行案内装置2が搭載されており、塀、ガードレール、電柱、駐車車輌等が存在する狭路を通過する際の運転者の負担を軽減し、安全を確保するようになっている。   In FIG. 1, reference numeral 1 denotes a vehicle such as an automobile, and the vehicle 1 is mounted with a travel guide device 2 that performs one function of an active drive assist (ADA) system that performs advanced support control for a driver. It reduces the burden on the driver when passing through narrow roads with fences, guardrails, utility poles, parked vehicles, etc., and ensures safety.

前記走行案内装置2は、車外の対象を撮像する撮像系としての左右1組のカメラからなるステレオ光学系10と、このステレオ光学系10によって撮像した左右1組のステレオ画像対を処理して画像全体に渡る3次元の距離分布を算出するステレオ画像処理手段15と、このステレオ画像処理手段15からの距離分布情報を入力し、その距離分布情報から、塀、ガードレール等の道路の境界となる連続した立体物としての側壁や、他の車輌、歩行者、建築物等の道路上の立体物の3次元位置を高速で検出する立体物検出手段100と、この立体物検出手段100で検出した前方の側壁や立体物の縁と自車輌1側部の延長線との間の左右の最近接距離を隙間距離として算出する隙間距離算出手段110と、この隙間距離算出手段110で算出した左右の隙間距離に係わる情報を運転者に知らせる報知手段115とを備えている。   The travel guide device 2 processes a stereo optical system 10 composed of a pair of left and right cameras as an imaging system for imaging an object outside the vehicle, and a pair of left and right stereo images captured by the stereo optical system 10 to process images. Stereo image processing means 15 for calculating a three-dimensional distance distribution over the whole, and distance distribution information from the stereo image processing means 15 are input, and from this distance distribution information, a continuous boundary that becomes a road boundary such as a fence or a guardrail is input. The three-dimensional object detection means 100 that detects at high speed the three-dimensional position of the three-dimensional object on the side wall as another three-dimensional object or other vehicles, pedestrians, buildings, etc., and the front detected by the three-dimensional object detection means 100 The gap distance calculation means 110 that calculates the left and right closest distance between the side wall or the edge of the three-dimensional object and the extension line of the vehicle 1 side as the gap distance, and the gap distance calculation means 110 And a notification unit 115 for notifying information related to the left and right gap distance to the driver.

図2は前記走行案内装置2のハードウエア構成を示す回路ブロック図であり、前記ステレオ光学系10を、例えば電荷結合素子(CCD)等の固体撮像素子を用いたCCDカメラを用い、後述するように、近距離用としての左右1組のCCDカメラ11a,11b、及び、遠距離用としての左右1組のCCDカメラ12a,12bにより構成し、このステレオ光学系10に前記ステレオ画像処理手段15としての機能を実現するイメージプロセッサ20が接続されている。   FIG. 2 is a circuit block diagram showing a hardware configuration of the travel guide apparatus 2. As will be described later, the stereo optical system 10 is a CCD camera using a solid-state imaging device such as a charge coupled device (CCD). In addition, a pair of left and right CCD cameras 11a and 11b for short distance and a pair of left and right CCD cameras 12a and 12b for long distance are used, and the stereo image processing means 15 is provided in the stereo optical system 10. An image processor 20 that realizes the above functions is connected.

さらに、前記イメージプロセッサ20に、前記立体物検出手段100及び前記隙間距離算出手段110としての機能を実現するための距離画像処理用コンピュータ120が接続され、この距離画像処理用コンピュータ120に前記報知手段115としてのディスプレイ3が接続されている。   Further, a distance image processing computer 120 for realizing the functions as the three-dimensional object detection means 100 and the gap distance calculation means 110 is connected to the image processor 20, and the notification means is connected to the distance image processing computer 120. A display 3 as 115 is connected.

前記イメージプロセッサ20は、前記ステレオ光学系10で撮像した2枚のステレオ画像対に対して微小領域毎に同一の物体が写っている部分を探索し、対応する位置のずれ量を求めて物体までの距離を算出する距離検出回路20aと、この距離検出回路20aの出力である距離情報を記憶する距離画像メモリ20bとから構成されている。   The image processor 20 searches the two stereo image pairs captured by the stereo optical system 10 for a portion where the same object is captured for each minute region, and obtains a corresponding positional shift amount to the object. And a distance image memory 20b for storing distance information as an output of the distance detection circuit 20a.

また、前記距離画像処理用コンピュータ120は、主として個々の物体を検出する処理を行なうためのマイクロプロセッサ120a、主として側壁を検出する処理を行なうためのマイクロプロセッサ120b、主として隙間距離を算出する処理を行なうためのマイクロプロセッサ120cがシステムバス121を介して並列に接続されたマルチマイクロプロセッサのシステム構成となっている。   Further, the distance image processing computer 120 is mainly a microprocessor 120a for performing processing for detecting individual objects, a microprocessor 120b for mainly performing processing for detecting side walls, and mainly performs processing for calculating a gap distance. Therefore, the system configuration is a multi-microprocessor system in which the microprocessors 120c are connected in parallel via the system bus 121.

そして、前記システムバス121には、前記距離画像メモリ20bに接続されるインターフェース回路122と、制御プログラムを格納するROM123と、計算処理途中の各種パラメータを記憶するRAM124と、処理結果のパラメータを記憶する出力用メモリ125と、ディスプレイ(DISP)3を制御するためのディスプレイコントローラ(DISP.CONT.)126と、車速センサ4、ステアリングの操舵角を検出する舵角センサ5、運転者に対するADAの支援モードを選択するためのモード設定スイッチ6等の車輌1に備えられたセンサ・スイッチ類からの信号を入力するインターフェース回路127とが接続されている。   The system bus 121 stores an interface circuit 122 connected to the distance image memory 20b, a ROM 123 that stores a control program, a RAM 124 that stores various parameters during calculation processing, and parameters of processing results. Output memory 125, display controller (DISP.CONT.) 126 for controlling display (DISP) 3, vehicle speed sensor 4, steering angle sensor 5 for detecting the steering angle of steering, and ADA support mode for the driver Is connected to an interface circuit 127 for inputting signals from sensors and switches provided in the vehicle 1 such as a mode setting switch 6.

前記距離画像処理用コンピュータ120においては、各マイクロプロセッサ120a,120b,120cが使用するメモリの領域が分けられており、前記イメージプロセッサ20からの距離情報に基づいて物体検出処理と側壁検出処理とを並列に実行し、運転者によって前記モード設定スイッチ6が操作されて規定の信号が入力されると、検出した立体物のデータから隙間距離算出処理を行なってディスプレイ3に表示する。   In the distance image processing computer 120, memory areas used by the respective microprocessors 120a, 120b, and 120c are divided, and object detection processing and sidewall detection processing are performed based on distance information from the image processor 20. When the mode setting switch 6 is operated by the driver and a prescribed signal is input by the driver, a gap distance calculation process is performed from the detected three-dimensional object data and displayed on the display 3.

図3に示すように、前記ディスプレイ3の画面には、車輌前方の風景を、後述する距離画像の状態で表示するモニタ部3aが中央部に設けられており、このモニタ部3aの側部に、ADAの各モード(クルーズ、ガイド、アシスト、チェック)を表示するモード表示部3bが設けられ、前記モード設定スイッチ6の操作入力に応じて前記モニタ部3aの該当する表示が点灯するようになっている。   As shown in FIG. 3, the screen of the display 3 is provided with a monitor unit 3a for displaying a landscape in front of the vehicle in a state of a distance image, which will be described later, at the center of the monitor unit 3a. A mode display unit 3b for displaying each mode of ADA (cruise, guide, assist, check) is provided, and the corresponding display on the monitor unit 3a is turned on in response to an operation input of the mode setting switch 6. ing.

また、前記モニタ部3aの上部には、データ表示部3cと、楕円を4分割した形状で車輌の前後左右を表わす位置表示部3dとが設けられ、前記モニタ部3a下部には、ADAの各モードに応じて、車間距離、速度、左隙間距離、右隙間距離等の文字とともに、算出した数値を表示するモードデータ表示部3eが設けられている。   In addition, a data display unit 3c and a position display unit 3d that represents the front, rear, left, and right of the vehicle in a shape obtained by dividing the ellipse into four parts are provided at the upper part of the monitor unit 3a. In accordance with the mode, a mode data display unit 3e is provided for displaying the calculated numerical values together with characters such as the inter-vehicle distance, speed, left gap distance, and right gap distance.

本発明においては、多数の立体物が存在する狭路を通過しなければならないような状況になったとき、運転者が前記モード設定スイッチ6を操作してガイドモードを選択すると、前記モード表示部3bの”ガイド”の表示部分が点灯し、前記ステレオ光学系10で撮像したステレオ画像対を処理した距離画像に基づいて、側壁、電柱、駐車車輌等の道路周辺の立体物の縁と自車輌1側部の延長線との間の左右の距離が算出され、その最小値が最近接距離すなわち隙間距離として求められるようになっている。   In the present invention, when the driver selects the guide mode by operating the mode setting switch 6 when it becomes necessary to pass through a narrow path where a large number of three-dimensional objects exist, the mode display unit 3b "Guide" display part is lit, and based on the distance image obtained by processing the stereo image pair imaged by the stereo optical system 10, the edge of the three-dimensional object around the road such as the side wall, the utility pole, the parked vehicle and the own vehicle The distance to the left and right between the extension line of one side is calculated, and the minimum value is obtained as the closest distance, that is, the gap distance.

そして、図3に示すように、モードデータ表示部3eの左隙間距離、右隙間距離の文字の下に、隙間距離の数値が表示され、前記位置表示部3dの左右部分が点灯する。この位置表示部3dは、算出した隙間距離が0以下の場合には、そのまま進行すると接触することを警告するため、該当する側が赤色で点灯され、隙間距離が0よりも大きく20cm程度以下の場合には、運転者の不用意なハンドル操作によって接触が起こる危険性があるので該当する側が黄色で点灯され、隙間距離が20cm程度よりも大きい場合は、そのまま進行しても接触のおそれが十分に少ないことを示すため、該当する側が緑色で点灯される。   As shown in FIG. 3, a numerical value of the gap distance is displayed below the characters of the left gap distance and the right gap distance on the mode data display portion 3e, and the left and right portions of the position display portion 3d are lit. When the calculated gap distance is 0 or less, the position display unit 3d warns that it will contact if it proceeds as it is. Therefore, the corresponding side is lit in red, and the gap distance is greater than 0 and less than about 20 cm. If there is a risk of contact caused by driver's careless steering operation, the corresponding side is lit in yellow, and if the gap distance is greater than about 20 cm, there is a sufficient risk of contact even if it proceeds as it is The corresponding side is lit in green to indicate low.

すなわち、側壁、電柱、駐車車輌等が存在する狭路を通過する前にモード設定スイッチ6を操作することにより、運転者はディスプレイ3の画面で安全に通過できるか否かを確認することができ、運転者の負担を軽減して接触事故等を未然に回避することができるのである。さらには、隙間距離を運転者が定量的に把握できるため、車輌位置感覚の学習が容易となり、安全運転の促進を図ることができる。   That is, by operating the mode setting switch 6 before passing through a narrow road where side walls, utility poles, parked vehicles, etc. are present, the driver can check on the screen of the display 3 whether it can pass safely. Therefore, it is possible to reduce the burden on the driver and avoid contact accidents. Furthermore, since the driver can quantitatively grasp the gap distance, learning of the vehicle position sense is facilitated, and safe driving can be promoted.

尚、簡易的には、前記ディスプレイ3に代えて、例えば隙間距離の値に応じて点灯部分が変化するバーグラフ等による表示器を採用しても良く、また、隙間距離に係わる情報を運転者に知らせる報知手段115として、視覚的な表示に代えて、音、音声等によるものを採用しても良い。   For simplicity, instead of the display 3, for example, a display using a bar graph or the like in which the lighting portion changes according to the value of the gap distance may be adopted. As the notification means 115 that informs the user, a device using sound, voice, or the like may be employed instead of visual display.

以下、イメージプロセッサ20による画像処理に係わる機能、距離画像処理用コンピュータ120による立体物検出に係わる機能、及び、モード設定スイッチ6によりガイドモードが選択された場合の隙間距離算出に係わる機能について説明する。尚、画像処理用コンピュータ120における隙間距離算出は、検出した立体物が自車輌1の進行方向に障害物として立ちふさがっていない場合に実行される。   Hereinafter, functions related to image processing by the image processor 20, functions related to three-dimensional object detection by the distance image processing computer 120, and functions related to gap distance calculation when the guide mode is selected by the mode setting switch 6 will be described. . The clearance distance calculation in the image processing computer 120 is executed when the detected three-dimensional object is not blocked as an obstacle in the traveling direction of the host vehicle 1.

前記ステレオ光学系10を構成する左右1組のカメラは、図4に示すように、近距離の左右画像用としての2台のCCDカメラ11a,11b(代表してCCDカメラ11と表記する場合もある)が、それぞれ車室内の天井前方に一定の間隔をもって取り付けられるとともに、遠距離の左右画像用としての2台のCCDカメラ12a,12b(代表してCCDカメラ12と表記する場合もある)が、それぞれ、近距離用のCCDカメラ11a,11bの外側に一定の間隔をもって取り付けられている。   As shown in FIG. 4, one set of left and right cameras constituting the stereo optical system 10 includes two CCD cameras 11a and 11b for short-distance left and right images. However, there are two CCD cameras 12a and 12b (represented as the CCD camera 12 as a representative) for left and right images at a long distance as well as being mounted at a certain distance in front of the ceiling in the passenger compartment. Are respectively attached to the outside of the short-distance CCD cameras 11a and 11b with a certain interval.

前記ステレオ光学系10として、直近から例えば100m遠方までの距離計測を行なう場合、車室内のCCDカメラ11、12の取付位置を、例えば、車輌1のボンネット先端から2mとすると、実際には前方2mから100mまでの位置を計測できれば良い。   When the stereo optical system 10 measures the distance from the nearest to, for example, 100m away, if the mounting position of the CCD cameras 11 and 12 in the vehicle interior is 2m from the bonnet tip of the vehicle 1, for example, it is actually 2m forward. It is only necessary to measure the position from 100 m to 100 m.

そこで、近距離用のCCDカメラ11a,11bでは、前方2mから20mまでの位置を計測し、遠距離用のCCDカメラ12a,12bでは、前方10mから100mまでの位置を計測すれば、近距離用CCDカメラ11と遠距離用CCDカメラ12とで前方10mから20mの間にオーバーラップを有して信頼性を確保しつつ、全ての範囲を計測することができる。   Therefore, if the CCD camera 11a, 11b for short distance measures the position from 2m to 20m ahead, and the CCD camera 12a, 12b for long distance measures the position from 10m to 100m forward, it is for short distance. The CCD camera 11 and the long-distance CCD camera 12 have an overlap between the front 10 m and 20 m, and the entire range can be measured while ensuring reliability.

以下に、イメージプロセッサ20による距離の算出方法を、近距離用CCDカメラ11を例に説明するが、遠距離用CCDカメラ12に対しても同様の処理により距離の算出が行われる。尚、本実施例による走行案内装置2では、直前の立体物を検出する為に、近距離用CCDカメラ11を用いる。   Hereinafter, the distance calculation method by the image processor 20 will be described by taking the short-distance CCD camera 11 as an example, but the distance is also calculated for the long-distance CCD camera 12 by the same processing. In the travel guidance apparatus 2 according to the present embodiment, the short-distance CCD camera 11 is used to detect the immediately preceding solid object.

すなわち、図5に示すように、近距離用の2台のCCDカメラ11a、11bの取付間隔をrとして、2台のカメラ11a,11bの設置面から距離Dにある点Pを撮影する場合、2台のカメラ11a,11bの焦点距離を共にfとすると、点Pの像は、それぞれのカメラについて焦点位置からfだけ離れた投影面に写る。   That is, as shown in FIG. 5, when shooting a point P at a distance D from the installation surface of the two cameras 11a and 11b, where r is the mounting interval between the two CCD cameras 11a and 11b for short distance, Assuming that the focal lengths of the two cameras 11a and 11b are both f, the image of the point P appears on a projection plane that is separated from the focal position by f for each camera.

このとき、右のCCDカメラ11bにおける像の位置から左のCCDカメラ11aにおける像の位置までの距離は、r+xとなり、このxをずれ量とすると、点Pまでの距離Dは、ずれ量xから以下の式で求めることができる。
D=r×f/x (1)
At this time, the distance from the position of the image in the right CCD camera 11b to the position of the image in the left CCD camera 11a is r + x. If this x is a shift amount, the distance D to the point P is calculated from the shift amount x. The following formula can be used.
D = r × f / x (1)

この左右画像のずれ量xは、エッジ、線分、特殊な形等、何らかの特徴を抽出し、それらの特徴が一致する部分を見つけ出すことによっても検出できるが、情報量の低下を避けるため、前記イメージプロセッサ20では、左右画像における同一物体の像を見つけ出す際に画像を小領域に分割し、それぞれの小領域内の輝度あるいは色のパターンを左右画像で比較して対応する領域を見つけ出すことにより、小領域毎の距離分布を全画面に渡って求める。   This left-right image shift amount x can be detected by extracting some features such as edges, line segments, special shapes, etc., and finding a portion where those features match, but in order to avoid a decrease in the amount of information, The image processor 20 divides the image into small areas when finding the image of the same object in the left and right images, and compares the luminance or color pattern in each small area with the left and right images to find a corresponding area. The distance distribution for each small area is obtained over the entire screen.

左右画像の一致度の評価すなわちステレオマッチングは、右画像、左画像のi番目画素の輝度(色を用いても良い)を、それぞれ、Ai、Biとすると、例えば、以下の(2)式に示すシティブロック距離Hによって行なうことができ、左右画像の各小領域間のシティブロック距離Hの最小値が所定の条件を満たすとき、互いの小領域が対応すると判断することができる。
H=Σ|Ai−Bi| (2)
In the evaluation of the degree of coincidence of the left and right images, that is, stereo matching, assuming that the luminance (color may be used) of the i-th pixel of the right image and the left image is Ai and Bi, respectively, When the minimum value of the city block distance H between the small areas of the left and right images satisfies a predetermined condition, it can be determined that the small areas correspond to each other.
H = Σ | Ai−Bi | (2)

このシティブロック距離Hによるステレオマッチングでは、平均値を減算することによる情報量の低下もなく、乗算がないことから演算速度を向上させることができるが、分割すべき小領域の大きさが大き過ぎると、その領域内に遠方物体と近くの物体が混在する可能性が高くなり、検出される距離が曖昧になる。従って、画像の距離分布を得るためにも領域は小さい方が良いが、小さ過ぎると逆に一致度を調べるための情報量が不足する。このため、例えば、100m先にある幅1.7mの車輌が、隣の車線の車輌と同じ領域内に含まれないように、4つに分割される画素数を領域横幅の最大値とすると、前記ステレオ光学系10に対して4画素となる。この値を基準に最適な画素数を実際の画像で試行した結果、縦横共に4画素となる。   In the stereo matching based on the city block distance H, the amount of information is not reduced by subtracting the average value, and there is no multiplication, so that the calculation speed can be improved. However, the size of the small area to be divided is too large. Then, there is a high possibility that a distant object and a nearby object are mixed in the area, and the detected distance becomes ambiguous. Therefore, the region should be small in order to obtain the distance distribution of the image, but if it is too small, the amount of information for checking the degree of coincidence is conversely insufficient. For this reason, for example, when the number of pixels divided into four is set to the maximum value of the region width so that a vehicle having a width of 1.7 m that is 100 m ahead is not included in the same region as the vehicle in the adjacent lane, Four pixels are provided for the stereo optical system 10. As a result of trying the optimum number of pixels in an actual image based on this value, the result is 4 pixels both vertically and horizontally.

以下の説明では、画像を4×4の小領域で分割して左右画像の一致度を調べるものとし、ステレオ光学系10は、近距離用のCCDカメラ11a,11bで代表するものとする。   In the following description, it is assumed that the image is divided into 4 × 4 small areas to check the degree of coincidence of the left and right images, and the stereo optical system 10 is represented by the short-distance CCD cameras 11a and 11b.

前記イメージプロセッサ20の回路詳細は、図6に示され、この回路では、距離検出回路20aに、前記ステレオ光学系10で撮像したアナログ画像をデジタル画像に変換する画像変換部30、この画像変換部30からの画像データに対し、左右画像のずれ量xを決定するためのシティブロック距離Hを画素を一つずつずらしながら次々と計算するシティブロック距離計算部40、シティブロック距離Hの最小値HMIN及び最大値HMAXを検出する最小・最大値検出部50、この最小・最大値検出部50で得られた最小値HMINが左右小領域の一致を示すものであるか否かをチェックしてずれ量xを決定するずれ量決定部60が備えられており、また、距離画像メモリ20bとしてデュアルポートメモリ90が採用されている。   Details of the circuit of the image processor 20 are shown in FIG. 6. In this circuit, the distance detection circuit 20 a converts an analog image captured by the stereo optical system 10 into a digital image, and the image conversion unit. The city block distance calculation unit 40 calculates the city block distance H for determining the shift amount x of the left and right images one after another while shifting the pixels one by one with respect to the image data from 30, and the minimum value HMIN of the city block distance H And a minimum / maximum value detection unit 50 for detecting the maximum value HMAX, and whether or not the minimum value HMIN obtained by the minimum / maximum value detection unit 50 indicates the coincidence of the left and right small areas is checked. A shift amount determining unit 60 for determining x is provided, and a dual port memory 90 is employed as the distance image memory 20b.

前記画像変換部30では、左右画像用のCCDカメラ11a,11bに対応してA/Dコンバータ31a,31bが備えられ、各A/Dコンバータ31a,31bに、データテーブルとしてのルックアップテーブル(LUT)32a,32b、前記CCDカメラ11a,11bで撮像した画像を記憶する画像メモリ33a,33bが、それぞれ接続されている。尚、前記画像メモリ33a,33bは、後述するように、シティブロック距離計算部40で画像の一部を繰り返し取り出して処理するため、比較的低速のメモリから構成することができ、コスト低減を図ることができる。   The image conversion unit 30 includes A / D converters 31a and 31b corresponding to the left and right image CCD cameras 11a and 11b, and each of the A / D converters 31a and 31b includes a lookup table (LUT). ) 32a and 32b, and image memories 33a and 33b for storing images taken by the CCD cameras 11a and 11b are respectively connected. As will be described later, the image memories 33a and 33b can be composed of a relatively low-speed memory because the city block distance calculation unit 40 repeatedly extracts and processes the image, thereby reducing the cost. be able to.

各A/Dコンバータ31a,31bは、例えば8ビットの分解能を有し、左右のCCDカメラ11a,11bからのアナログ画像を、所定の輝度階調を有するデジタル画像に変換する。すなわち、処理の高速化のため画像の二値化を行なうと、左右画像の一致度を計算するための情報が著しく失われるため、例えば256階調のグレースケールに変換するのである。   Each A / D converter 31a, 31b has, for example, 8-bit resolution, and converts analog images from the left and right CCD cameras 11a, 11b into digital images having a predetermined luminance gradation. That is, if image binarization is performed for speeding up the processing, information for calculating the degree of coincidence between the left and right images is significantly lost. For example, the image is converted to a gray scale of 256 gradations.

また、LUT32a,32bはROM上に構成され、前記A/Dコンバータ31a,31bでデジタル量に変換された画像に対し、低輝度部分のコントラストを上げたり、左右のCCDカメラ11a,11bの特性の違いを補正する。そして、LUT32a,32bで変換された信号は、一旦、画像メモリ33a,33bに記憶される。   Further, the LUTs 32a and 32b are configured on the ROM, and increase the contrast of the low-brightness portion or the characteristics of the left and right CCD cameras 11a and 11b with respect to the images converted into digital quantities by the A / D converters 31a and 31b. Correct the difference. The signals converted by the LUTs 32a and 32b are temporarily stored in the image memories 33a and 33b.

前記シティブロック距離計算部40では、前記画像変換部30の左画像用の画像メモリ33aに、共通バス80を介して2組の入力バッファメモリ41a,41bが接続されるとともに、右画像用の画像メモリ33bに、共通バス80を介して2組の入力バッファメモリ42a,42bが接続されている。   In the city block distance calculation unit 40, two sets of input buffer memories 41a and 41b are connected to the image memory 33a for the left image of the image conversion unit 30 via the common bus 80, and the image for the right image is also displayed. Two sets of input buffer memories 42 a and 42 b are connected to the memory 33 b via a common bus 80.

前記左画像用の各入力バッファメモリ41a,41bには、2組の例えば8段構成のシフトレジスタ43a,43bが接続され、右画像用の各入力バッファメモリ42a,42bには、同様に、2組の例えば8段構成のシフトレジスタ44a,44bが接続されている。さらに、これら4組のシフトレジスタ43a,43b,44a,44bには、シティブロック距離を計算するシティブロック距離計算回路45が接続されている。   Two sets of shift registers 43a and 43b having, for example, eight stages are connected to the left image input buffer memories 41a and 41b. Similarly, each of the right image input buffer memories 42a and 42b has 2 A set of, for example, eight-stage shift registers 44a and 44b are connected. Further, a city block distance calculation circuit 45 for calculating a city block distance is connected to the four sets of shift registers 43a, 43b, 44a, and 44b.

また、前記右画像用のシフトレジスタ44a、44bには、後述するずれ量決定部60の2組の10段構成のシフトレジスタ64a,64bが接続されており、次の小領域のデータ転送が始まると、シティブロック距離Hの計算の終わった古いデータはこれらのシフトレジスタ64a,64bに送られ、ずれ量xの決定の際に用いられる。   Further, two sets of 10-stage shift registers 64a and 64b of a shift amount determination unit 60 described later are connected to the shift registers 44a and 44b for the right image, and data transfer of the next small area starts. Then, the old data for which the calculation of the city block distance H has been completed is sent to these shift registers 64a and 64b, and is used in determining the shift amount x.

また、シティブロック距離計算回路45は、加減算器に入出力ラッチをつなげてワンチップ化した高速CMOS型演算器46を組み合わせており、図7に詳細が示されるように、演算器46を16個ピラミッド状に接続したパイプライン構造で、例えば8画素分を同時に入力して計算するようになっている。このピラミッド型構造の初段は、絶対値演算器、2段〜4段は、それぞれ、第1加算器、第2加算器、第3加算器を構成し、最終段は総和加算器となっている。尚、図7においては、絶対値計算と1,2段目の加算器は半分のみ表示している。   The city block distance calculation circuit 45 combines an adder / subtracter with a high-speed CMOS type arithmetic unit 46 connected to an input / output latch to form a single chip. As shown in detail in FIG. 7, 16 arithmetic units 46 are provided. In a pipeline structure connected in a pyramid shape, for example, 8 pixels are simultaneously inputted and calculated. The first stage of this pyramid structure is an absolute value calculator, the second to fourth stages constitute a first adder, a second adder, and a third adder, respectively, and the final stage is a sum adder. . In FIG. 7, only half of the absolute value calculation and the first and second stage adders are displayed.

また、前記各入力バッファメモリ41a,41b,42a,42bは、シティブロック距離計算の速度に応じた比較的小容量の高速タイプであり、入出力が分離し、クロック発生回路85から供給されるクロックに従って、#1アドレスコントローラ86によって発生されるアドレスが共通に与えられる。また、4組のシフトレジスタ43a,43b,44a,44bとの転送は、#2アドレスコントローラ87によって制御される。   Each of the input buffer memories 41a, 41b, 42a, 42b is a high-speed type having a relatively small capacity corresponding to the speed of the city block distance calculation. Accordingly, the address generated by the # 1 address controller 86 is given in common. Transfer to the four shift registers 43a, 43b, 44a, and 44b is controlled by the # 2 address controller 87.

前記最小・最大値検出部50は、シティブロック距離Hの最小値HMINを検出する最小値検出回路51とシティブロック距離Hの最大値HMAXを検出する最大値検出回路52とを備えており、前記シティブロック距離計算回路45と同様の高速CMOS型演算器を最小値、最大値検出用として2個使用した構成となっており、シティブロック距離Hの出力と同期が取られるようになっている。   The minimum / maximum value detection unit 50 includes a minimum value detection circuit 51 that detects the minimum value HMIN of the city block distance H and a maximum value detection circuit 52 that detects the maximum value HMAX of the city block distance H, Two high-speed CMOS type arithmetic units similar to the city block distance calculation circuit 45 are used for detecting the minimum value and the maximum value, and the output of the city block distance H is synchronized.

図8に示すように、最小値検出回路51は、具体的には、Aレジスタ46a、Bレジスタ46b、及び、算術論理演算ユニット(ALU)46cからなる演算器46に、Cラッチ53,ラッチ54,Dラッチ55を接続して構成され、シティブロック距離計算回路45からの出力が、Aレジスタ46aと、Cラッチ53を介してBレジスタ46bとに入力され、ALU46の出力の最上位ビット(MSB)がラッチ54に出力される。このラッチ54の出力は、Bレジスタ46b及びDラッチ55に出力され、演算器46での最小値計算の途中の値が、Bレジスタ46bに保存されるとともに、そのときのずれ量δがDラッチ55に保存されるようになっている。尚、最大値検出回路52については、論理が逆になることと、ずれ量δを保存しないこと以外は、最小値検出回路51と同様の構成である。   As shown in FIG. 8, specifically, the minimum value detection circuit 51 includes a C latch 53, a latch 54, and an arithmetic unit 46 including an A register 46a, a B register 46b, and an arithmetic logic unit (ALU) 46c. , D latch 55 is connected, and the output from the city block distance calculation circuit 45 is input to the A register 46a and the B register 46b via the C latch 53, and the most significant bit (MSB) of the output of the ALU 46 ) Is output to the latch 54. The output of the latch 54 is output to the B register 46b and the D latch 55, and the value in the middle of the minimum value calculation in the arithmetic unit 46 is stored in the B register 46b. 55 is stored. The maximum value detection circuit 52 has the same configuration as that of the minimum value detection circuit 51 except that the logic is reversed and the shift amount δ is not stored.

前述したようにシティブロック距離Hは、一つの右画像小領域に対し、左画像小領域を1画素ずつずらしながら順次計算されていく。そこで、シティブロック距離Hの値が出力される毎に、これまでの値の最大値HMAX、最小値HMINと比較、更新することによって、最後のシティブロック距離Hの出力とほぼ同時に、その小領域におけるシティブロック距離Hの最大値HMAX、最小値HMINが求まるようになっている。   As described above, the city block distance H is sequentially calculated while shifting the left image small area one pixel at a time with respect to one right image small area. Therefore, each time the value of the city block distance H is output, the small area is almost simultaneously with the output of the last city block distance H by comparing and updating the maximum value HMAX and the minimum value HMIN of the previous values. The maximum value HMAX and the minimum value HMIN of the city block distance H at are obtained.

前記ずれ量決定部60は、比較的小規模のRISCプロセッサとして構成され、演算器61を中心として、2本の16ビット幅データバス62a,62b、ずれ量xを保持するラッチ63a、第1の規定値としてのしきい値HAを保持するラッチ63b、第2の規定値としてのしきい値HBを保持するラッチ63c、第3の規定値としてのしきい値HCを保持するラッチ63d、右画像の輝度データを保持する2組のシフトレジスタ64a,64b、演算器61の出力を受けてずれ量xまたは”0”を出力するスイッチ回路65、そして出力された結果を一時保存する出力バッファメモリ66a,66b、回路の動作タイミングや演算器61の機能の制御プログラムが書き込まれた16ビット幅のROM67が備えられている。   The shift amount determination unit 60 is configured as a relatively small RISC processor, with the arithmetic unit 61 as a center, two 16-bit width data buses 62a and 62b, a latch 63a that holds the shift amount x, a first A latch 63b that holds a threshold value HA as a prescribed value, a latch 63c that holds a threshold value HB as a second prescribed value, a latch 63d that holds a threshold value HC as a third prescribed value, a right image Two sets of shift registers 64a and 64b for holding the luminance data, a switch circuit 65 for receiving the output of the arithmetic unit 61 and outputting the shift amount x or "0", and an output buffer memory 66a for temporarily storing the output result 66b, a 16-bit ROM 67 in which a control program for the operation timing of the circuit and the function of the arithmetic unit 61 is written.

前記演算器61は、ALU70を中心として、Aレジスタ71、Bレジスタ72、Fレジスタ73、及び、セレクタ74からなり、前記データバス62a(以下、Aバス62aとする)にAレジスタ71が接続されるとともに、前記データバス62b(以下、Bバス62bとする)にBレジスタ72が接続され、ALU70の演算結果で前記スイッチ回路65を作動し、ずれ量xまたは“0”が前記出力バッファメモリ66a,66bに格納されるようになっている。   The arithmetic unit 61 includes an A register 71, a B register 72, an F register 73, and a selector 74 with an ALU 70 as a center, and the A register 71 is connected to the data bus 62a (hereinafter referred to as an A bus 62a). At the same time, a B register 72 is connected to the data bus 62b (hereinafter referred to as B bus 62b), and the switch circuit 65 is operated according to the calculation result of the ALU 70, and the deviation amount x or "0" is the output buffer memory 66a. , 66b.

前記Aバス62aには、各しきい値HA、HB、HCを保持するラッチ63b,63c,63d、前記最大値検出回路52が接続され、前記Bバス62bには、前記最小値検出回路51が接続されている。さらに、前記Aバス62a及びBバス62bには、前記各シフトレジスタ64a,64bが接続されている。   The A bus 62a is connected to latches 63b, 63c and 63d for holding the threshold values HA, HB and HC, and the maximum value detection circuit 52, and the B bus 62b is connected to the minimum value detection circuit 51. It is connected. Further, the shift registers 64a and 64b are connected to the A bus 62a and the B bus 62b.

また、前記スイッチ回路65には、前記演算器61が接続されるとともに、前記ラッチ63aを介して前記最小値検出回路51が接続され、後述する3つのチェック条件が演算器61で判定され、その判定結果に応じて前記出力バッファメモリ66a,66bへの出力が切り換えられる。   Further, the calculator 61 is connected to the switch circuit 65, and the minimum value detection circuit 51 is connected via the latch 63a, and three check conditions to be described later are determined by the calculator 61. The output to the output buffer memories 66a and 66b is switched according to the determination result.

このずれ量決定部60では、得られたシティブロック距離Hの最小値HMINが本当に左右小領域の一致を示しているものかどうかチェックを行い、条件を満たしたもののみ、出力バッファメモリ66a,66bの対応する画素の位置にずれ量xを出力する。   The shift amount determination unit 60 checks whether or not the obtained minimum value HMIN of the city block distance H really indicates the coincidence of the left and right small areas, and only the output buffer memories 66a and 66b satisfying the condition. The shift amount x is output to the corresponding pixel position.

すなわち、シティブロック距離Hが最小となるずれ量が求めるずれ量xとなる訳であるが、以下の3つのチェック条件を満足した場合にずれ量xを出力し、満足しない場合には、データを採用せずに“0”を出力する。
(1)HMIN≦HA(HMIN>HAのときには距離を検出できず。)
(2)HMAX −HMIN ≧HB (得られた最小値HMINがノイズによる揺らぎより明らかに低くなっていることをチェックするための条件であり、最小値HMIN の近傍の値との差でなく、最大値HMAX との差をチェック対象とすることにより、曲面等の緩やかに輝度の変わる物体に対しても距離検出が行なえる。)
(3)右画像の小領域内の横方向の隣接画素間の輝度差>HC (しきい値HC を大きくするとエッジ検出となるが、輝度が緩やかに変化している場合にも対応可能なように、しきい値HC は通常のエッジ検出レベルよりはずっと低くしてある。この条件は、輝度変化のない部分では、距離検出が行なえないという基本的な原理に基づいており、小領域中の画素毎に行なわれるため、小領域の中でも実際に距離の検出された画素のみが採用されることになり、自然な結果が得られる。)
このずれ量決定部60から出力される最終結果である距離分布情報は、距離画像メモリ20bとしてのデュアルポートメモリ90へ共通バス80を介して書き込まれる。
In other words, the amount of deviation that minimizes the city block distance H is the amount of deviation x to be obtained. When the following three check conditions are satisfied, the amount of deviation x is output. Outputs “0” without adopting.
(1) HMIN ≦ HA (Distance cannot be detected when HMIN> HA.)
(2) HMAX -HMIN ≥ HB (This is a condition for checking that the obtained minimum value HMIN is clearly lower than the fluctuation due to noise. It is not the difference with the value near the minimum value HMIN but the maximum value. (By using the difference from the value HMAX as a check target, distance detection can be performed even on objects such as curved surfaces whose luminance changes slowly.)
(3) Luminance difference between adjacent pixels in the horizontal direction in the small area of the right image> HC (When the threshold value HC is increased, edge detection is performed, but it is possible to cope with a case where the luminance changes slowly. The threshold value HC is much lower than the normal edge detection level, which is based on the basic principle that distance detection cannot be performed in a portion where there is no change in luminance. Since this is performed for each pixel, only the pixels in which the distance is actually detected are adopted in the small area, and a natural result is obtained.)
The distance distribution information which is the final result output from the deviation amount determination unit 60 is written to the dual port memory 90 as the distance image memory 20b via the common bus 80.

以上のイメージプロセッサ20から出力される距離分布情報は、画像のような形態をしており(距離画像)、CCDカメラ11で撮影した画像、例えば図9に示すように、駐車車輌200,300やガードレール400等の立体物を撮像した画像(図9は片方のカメラで撮像した画像を示す)を前記イメージプロセッサ20で処理すると、図10のような画像となる。   The distance distribution information output from the image processor 20 is in the form of an image (distance image), and an image taken by the CCD camera 11, for example, as shown in FIG. When an image obtained by imaging a three-dimensional object such as the guardrail 400 (FIG. 9 shows an image captured by one camera) is processed by the image processor 20, an image as shown in FIG. 10 is obtained.

図10に示す距離画像の例では、画像サイズは横400画素×縦200画素であり、距離データを持っているのは黒点の部分で、これは図9の画像の各画素のうち、左右方向に隣合う画素間で明暗変化が大きい部分である。画像上の座標系は、図10に示すように、左上隅を原点として横方向をi座標軸,縦方向をj座標軸とし、単位は画素である。   In the example of the distance image shown in FIG. 10, the image size is 400 pixels wide × 200 pixels long, and the distance data has a black dot portion. This is the left-right direction among the pixels of the image in FIG. This is a portion where the change in brightness between pixels adjacent to each other is large. As shown in FIG. 10, the coordinate system on the image has the upper left corner as the origin, the horizontal direction as the i coordinate axis, and the vertical direction as the j coordinate axis, and the unit is a pixel.

この距離画像は、距離画像処理用コンピュータ120に読み込まれ、前方に存在する他の車輌や障害物等の複数の物体が検出され、その位置と大きさが算出され、検出した物体の輪郭像が抽出される。さらには、位置の時間変化による自車との相対速度等も算出することができる。   This distance image is read into the distance image processing computer 120, a plurality of objects such as other vehicles and obstacles existing in front are detected, their positions and sizes are calculated, and an outline image of the detected object is obtained. Extracted. Furthermore, the relative speed with the own vehicle by the time change of a position, etc. are computable.

この場合、前記距離画像処理用コンピュータ120では、物体の3次元的な位置情報を利用し、道路と物体の区別は道路表面からの高さによって行い、物体と背景の区別は距離の値によって行なう。そのため、前記距離画像処理用コンピュータ120では、まず、前記イメージプロセッサ20からの距離画像の座標系を、自車(車輌1)を取り巻く実空間の座標系に変換し、検出した立体物に対し、位置や大きさを計算する。   In this case, the distance image processing computer 120 uses the three-dimensional position information of the object, the road and the object are distinguished by the height from the road surface, and the object and the background are distinguished by the distance value. . Therefore, in the distance image processing computer 120, first, the coordinate system of the distance image from the image processor 20 is converted into the coordinate system of the real space surrounding the own vehicle (vehicle 1), and the detected three-dimensional object is Calculate position and size.

すなわち、図11及び図12に示すように、実空間の座標系を車輌1固定の座標系とし、X軸を車輌1の右側側方、Y軸を車輌1の上方、Z軸を車輌1の前方、原点を2台のCCDカメラ11a(12b),11b(12b)の中央の真下の道路面とすると、XZ平面(Y=0)は、道路が平坦な場合、道路面と一致することになり、画像中の距離情報(i,j,Z)から被写体の3次元位置(X,Y,Z)を算出するには、以下の(3),(4)式により一種の座標変換を行なう。
Y=CH−Z×PW×(j−JV) (3)
X=r/2+Z×PW×(i−IV) (4)
ここで、 CH :CCDカメラ11(CCDカメラ12)
の取付け高さ、
PW :1画素当たりの視野角、
JV,IV:車輌1の真正面の無限遠点の画像上の
座標である。
That is, as shown in FIGS. 11 and 12, the coordinate system in the real space is a coordinate system fixed to the vehicle 1, the X axis is the right side of the vehicle 1, the Y axis is above the vehicle 1, and the Z axis is the vehicle 1. If the front and the origin are the road surface directly below the center of the two CCD cameras 11a (12b) and 11b (12b), the XZ plane (Y = 0) matches the road surface when the road is flat. Thus, in order to calculate the three-dimensional position (X, Y, Z) of the subject from the distance information (i, j, Z) in the image, a kind of coordinate transformation is performed by the following equations (3) and (4). .
Y = CH-Z * PW * (j-JV) (3)
X = r / 2 + Z × PW × (i-IV) (4)
Here, CH: CCD camera 11 (CCD camera 12)
Installation height,
PW: viewing angle per pixel,
JV, IV: On the image of the infinity point directly in front of vehicle 1
Coordinates.

また、実空間の3次元座標(X,Y,Z)から画像上の位置(i,j)を算出する式も、前記(3),(4)式を変形し、次のようになる。
j=(CH−Y)/(Z×PW)+JV (5)
i=(X−r/2)/(Z×PW)+IV (6)
尚、CCDカメラ11の取り付け位置を、前記実空間のXYZ座標系で示すと、例えば、右側のCCDカメラ11bは、X=0.20m,Y=1.24m,Z=0.0mであり、左側のCCDカメラ11aは、X=−0.20m,Y=1.24m,Z=0.0mとなる。
Also, the formula for calculating the position (i, j) on the image from the three-dimensional coordinates (X, Y, Z) in the real space is modified from the formulas (3) and (4) as follows.
j = (CH−Y) / (Z × PW) + JV (5)
i = (X−r / 2) / (Z × PW) + IV (6)
When the mounting position of the CCD camera 11 is shown in the XYZ coordinate system of the real space, for example, the right CCD camera 11b has X = 0.20m, Y = 1.24m, Z = 0.0m, In the left CCD camera 11a, X = −0.20 m, Y = 1.24 m, and Z = 0.0 m.

図13は、前記距離画像処理用コンピュータ120の機能構成を示すものであり、主として、マイクロプロセッサ120aによる物体認識部130、マイクロプロセッサ120bによる側壁検出部140、マイクロプロセッサ120cによる隙間距離算出部160に大別され、物体認識部130及び側壁検出部140の処理結果が、出力用メモリ125からなる立体物パラメータ記憶部150に記憶され、マイクロプロセッサ120c(隙間距離算出部160)、及び、ADAのための図示しない他の装置に読み込まれる。   FIG. 13 shows a functional configuration of the distance image processing computer 120. Mainly, an object recognition unit 130 by the microprocessor 120a, a side wall detection unit 140 by the microprocessor 120b, and a gap distance calculation unit 160 by the microprocessor 120c. The processing results of the object recognition unit 130 and the side wall detection unit 140 are roughly classified and stored in the three-dimensional object parameter storage unit 150 including the output memory 125, and for the microprocessor 120c (gap distance calculation unit 160) and ADA. Is read into another device (not shown).

さらに、前記物体認識部130の機能は、物体検出部131、3次元ウインドウ発生部132、及び、物体輪郭像抽出部133に細分され、物体検出部131では、イメージプロセッサ20からの距離画像を格子状に所定の間隔(例えば、8〜20画素間隔)で区分し、各領域毎に、走行の障害となる可能性のある立体物のデータのみを選別し、その検出距離を算出する。   Further, the function of the object recognition unit 130 is subdivided into an object detection unit 131, a three-dimensional window generation unit 132, and an object outline image extraction unit 133. The object detection unit 131 grids a distance image from the image processor 20. Are divided at predetermined intervals (for example, intervals of 8 to 20 pixels), and for each region, only the data of a three-dimensional object that may be an obstacle to traveling is selected, and the detection distance is calculated.

図14は、車輌1から前方風景を撮像した明暗画像の上に、格子状の領域を設定した説明図であり、実際には、図10の距離画像を、このように区分する。本実施例では、12画素間隔で33個の小領域AR1〜AR33に区分する。すなわち、画像を多数の領域に分割して物体を探すことにより、複数の物体を同時に検出することができるようになっている。   FIG. 14 is an explanatory diagram in which a grid-like region is set on a light and dark image obtained by capturing a forward landscape from the vehicle 1, and actually the distance image of FIG. 10 is divided in this way. In this embodiment, the area is divided into 33 small areas AR1 to AR33 at intervals of 12 pixels. That is, a plurality of objects can be detected simultaneously by searching for an object by dividing an image into a large number of regions.

各領域における被写体は、画像上の座標(i,j)と距離データZから、前述の(3),(4)式を使って実空間の3次元位置(X,Y,Z)が算出され、さらに、距離Zに於ける被写体の道路表面からの高さHは、道路表面の高さをYrとすると、次の(7)式で計算することができるが、図11,12に示すように座標系が設定されているため、車輌1に特別な傾きや上下移動が無い限り、Yr=0.0mと設定することができる。
H=Y−Yr (7)
For the subject in each area, the three-dimensional position (X, Y, Z) in the real space is calculated from the coordinates (i, j) on the image and the distance data Z using the above-described equations (3) and (4). Further, the height H of the subject from the road surface at the distance Z can be calculated by the following equation (7), where Yr is the height of the road surface, as shown in FIGS. Since the coordinate system is set to Yr = 0.0 m unless the vehicle 1 has a special tilt or vertical movement.
H = Y-Yr (7)

高さHが0.1m程度以下の被写体は、道路上の白線や汚れ、影などであり、走行の障害になる物体ではないと考えられるため、この被写体のデータは棄却する。また、車輌の高さより上にある被写体も、歩道橋や標識などと考えられるので棄却し、道路上の障害となる立体物のデータのみを選別する。これにより、2次元の画像上で物体が道路などと重なり合っていても、道路表面からの高さによってデータを区別し、物体のみを検出できる。   A subject whose height H is about 0.1 m or less is white lines, dirt, shadows, etc. on the road, and is considered not to be an obstacle to travel, so this subject data is rejected. An object above the height of the vehicle is also considered as a pedestrian bridge or a sign, so it is rejected and only the data of the three-dimensional object that becomes an obstacle on the road is selected. As a result, even if an object overlaps a road or the like on a two-dimensional image, data can be distinguished based on the height from the road surface, and only the object can be detected.

次に、このようにして抽出された立体物のデータに対して、予め設定された距離Zの区間に含まれるデータの個数を数え、距離Zを横軸とするヒストグラムを作成する。図15は、例えば図9の画像例における前方右側の駐車車輌300を検出物体とするヒストグラムであり、設定する距離Zの区間の長さや区間の個数は、距離Zの検出限界や精度および検出対象の物体の形状などを考慮して決定する。   Next, for the three-dimensional object data extracted in this way, the number of data included in the section of the preset distance Z is counted, and a histogram with the distance Z as the horizontal axis is created. FIG. 15 is a histogram using, for example, the front right parked vehicle 300 in the image example of FIG. 9 as a detection object. The length of the section of the distance Z to be set and the number of sections are the detection limit, accuracy, and detection target of the distance Z. This is determined in consideration of the shape of the object.

前記ヒストグラムにおいては、入力される距離画像中の距離データには、誤って検出された値も存在するので、実際には物体の存在しない位置にも多少のデータが現れる。しかし、ある程度の大きさの物体があると、その位置の度数は大きな値を示し、一方、物体が何も存在しない場合には、誤った距離データのみによって発生する度数は小さな値となる。   In the histogram, since the distance data in the input distance image includes a value detected in error, some data appears at a position where no object actually exists. However, when there is an object of a certain size, the frequency at that position shows a large value, whereas when there is no object, the frequency generated only by erroneous distance data becomes a small value.

従って、作成されたヒストグラムの度数が、予め設定した判定値以上かつ最大値をとる区間があれば、その区間に物体が存在すると判断し、度数の最大値が判定値以下の場合は、物体が存在しないと判断することにより、画像のデータに多少のノイズが含まれている場合においても、ノイズの影響を最小限にして物体を検出できる。   Therefore, if there is a section in which the frequency of the created histogram is greater than or equal to a preset determination value and has a maximum value, it is determined that an object exists in the section, and if the maximum value of the frequency is equal to or less than the determination value, the object is By determining that it does not exist, even when some noise is included in the image data, it is possible to detect the object while minimizing the influence of the noise.

物体が存在すると判断されると、検出された区間と、その前後に隣接する区間に含まれている立体物のデータの距離Zの平均値を計算し、この値を物体までの距離と見なす。このような物体までの距離検出の処理を全領域について行なった後、各領域の物体の検出距離を調べ、隣接する領域において物体までの検出距離の差異が設定値以下の場合は同一の物体と見なし、一方、設定値以上の場合は別々の物体と見なす。   If it is determined that an object exists, the average value of the distance Z between the detected section and the data of the three-dimensional object included in the sections adjacent to the front and rear is calculated, and this value is regarded as the distance to the object. After performing the distance detection process to the object for all areas, check the detection distance of the object in each area, and if the difference in the detection distance to the object in the adjacent area is less than the set value, On the other hand, if it exceeds the set value, it is considered as a separate object.

具体的には、まず、左端の領域AR1を調べ、物体が検出されている場合には、それを物体S1、距離をZ1とする。次に右隣の領域AR2を調べ、物体が検出されていない場合には、物体S1は領域AR1の内部とその近辺に存在し、その距離はZ1と判定し、物体が検出され、その検出距離がZ2である場合には、距離Z1とZ2の差を調べる。   Specifically, first, the left end area AR1 is examined, and if an object is detected, it is set as the object S1 and the distance is Z1. Next, the area AR2 on the right is examined, and if no object is detected, the object S1 exists in and near the area AR1, the distance is determined to be Z1, the object is detected, and the detected distance Is Z2, the difference between the distances Z1 and Z2 is examined.

そして、距離Z1とZ2の差が設定値以上の場合、領域AR2で検出された物体は、先に検出された物体S1とは異なると判定し、新たに物体S2、距離Z2とし、さらに右隣の領域を調べて行く。   If the difference between the distances Z1 and Z2 is equal to or larger than the set value, the object detected in the area AR2 is determined to be different from the previously detected object S1, and is newly set as the object S2, distance Z2, and further to the right Go check the area.

一方、距離Z1とZ2の差が設定値以下の場合には、領域AR2で検出された物体は、先に検出された物体S1であると判定し、その距離はZ1とZ2の平均値とし、さらに右隣の領域を順次調べて行き、連続して物体S1があると判定されれば、距離と存在領域を更新してゆく。   On the other hand, when the difference between the distances Z1 and Z2 is equal to or smaller than the set value, it is determined that the object detected in the area AR2 is the object S1 detected earlier, and the distance is an average value of Z1 and Z2. Further, the area on the right is sequentially examined, and if it is determined that the object S1 is continuously present, the distance and the existing area are updated.

従来、2次元の画像上で物体の周囲に遠方の背景が写っている場合には物体のデータだけを抽出することは困難であったが、以上のような処理を左端の領域AR1から右端の領域AR33まで行なって距離の値によってデータを区別することにより、複数の物体とその距離、存在領域を背景と区別して検出することができ、さらに、2次元の画像上で複数の物体が重なり合って写っている場合においても、各々の物体の距離の違いによって、それらを区別して検出できる。   Conventionally, it has been difficult to extract only the object data when a distant background appears around the object on the two-dimensional image. However, the above processing is performed from the left end area AR1 to the right end. By performing the process up to the area AR33 and distinguishing the data according to the distance value, it is possible to detect a plurality of objects and their distances and existing areas separately from the background, and the plurality of objects overlap each other on a two-dimensional image. Even in the case of being photographed, they can be distinguished and detected by the difference in distance between the objects.

尚、前記設定値は、自動車を検出する場合には4m〜6m程度、歩行者を検出する場合には1m〜2m程度にすると良いことが実験的に得られている。   It has been experimentally obtained that the set value is preferably about 4 m to 6 m when detecting a car and about 1 m to 2 m when detecting a pedestrian.

図16は、以上の処理で検出した物体の存在領域を枠線で示したものであり、、この例では左側の車輌200及び右側の車輌300の2個の物体が検出されている。図の下側に示される数値は各物体の検出距離である。   FIG. 16 shows the existence area of the object detected by the above processing by a frame line. In this example, two objects of the left vehicle 200 and the right vehicle 300 are detected. The numerical value shown on the lower side of the figure is the detection distance of each object.

3次元ウインドウ発生部132では、前記物体検出部131で検出された各々の物体について、図17に示すような3次元空間で、検出物体(駐車車輌300)を包含する直方体状の3次元空間領域すなわち3次元ウインドウWD3を設定し、この設定した3次元ウインドウWD3が2次元の画像上でどのように見えるかを計算し、ウインドウ輪郭線の内側を2次元ウインドウWD2として、この中のデータのみを検出対象とする。   In the three-dimensional window generation unit 132, for each object detected by the object detection unit 131, a rectangular parallelepiped three-dimensional space region including the detected object (parked vehicle 300) in a three-dimensional space as shown in FIG. That is, a three-dimensional window WD3 is set, how the set three-dimensional window WD3 looks on a two-dimensional image is calculated, and the inside of the window outline is set as a two-dimensional window WD2, and only the data in this is selected. Detected.

前記3次元ウインドウWD3の横幅は、物体の存在領域より左右に1領域分だけ拡張した範囲とする。これは、ある領域に物体の左右端の一部分のみが掛かっている場合には、その物体はヒストグラム上で大きな値とならず、別の物体が検出される可能性があるため、このような場合を考慮してウインドウの範囲を拡大しておくものである。   The horizontal width of the three-dimensional window WD3 is set to a range expanded by one area to the left and right from the area where the object exists. This is because, when only a part of the left and right edges of an object is applied to a certain area, the object does not have a large value on the histogram, and another object may be detected. The window range is expanded in consideration of the above.

また、3次元ウインドウWD3の距離Z方向の長さは、その物体の検出距離におけるヒストグラムの区間長さを、その検出距離の前後に加えた範囲とする。3次元ウインドウWD3の下端は、道路表面の高さに約0.1mを加えた位置とし、上端は物体検出のために区分した各領域の上端とする。   The length in the distance Z direction of the three-dimensional window WD3 is a range obtained by adding the section length of the histogram at the detection distance of the object before and after the detection distance. The lower end of the three-dimensional window WD3 is a position obtained by adding about 0.1 m to the height of the road surface, and the upper end is the upper end of each area divided for object detection.

前記3次元ウインドウWD3から前記2次元ウインドウWD2を求めるには、3次元ウィンドウWD3の8個の頂点の各座標(Xn,Yn,Zn)から、前述の(5),(6)式を用いて画像上の座標(in,jn)を計算し、これらの点を包絡する多角形を計算する。図18は、先に図16で示した検出物体の内の1個(駐車車輌300)について、2次元ウインドウWD2を設定した例を示したものである。   In order to obtain the two-dimensional window WD2 from the three-dimensional window WD3, from the coordinates (Xn, Yn, Zn) of the eight vertices of the three-dimensional window WD3, the above-described equations (5) and (6) are used. The coordinates (in, jn) on the image are calculated, and the polygon enclosing these points is calculated. FIG. 18 shows an example in which a two-dimensional window WD2 is set for one of the detected objects (parked vehicle 300) shown in FIG.

物体輪郭像抽出部133では、前記2次元ウインドウWD2内の各データを順次サーベイし、3次元ウインドウWD3に含まれるデータのみを選別し、検出した物体の輪郭像を抽出する処理を行ない、検出物体の自車輌1との位置関係を検出する。   The object contour image extraction unit 133 sequentially surveys each data in the two-dimensional window WD2, selects only the data included in the three-dimensional window WD3, performs a process of extracting a contour image of the detected object, and detects the detected object The positional relationship with the own vehicle 1 is detected.

すなわち、まず、物体毎に2次元ウインドウWD2内の各データを順次サーベイし、距離データを持っている画素について、前述の(3),(4)式を用いて3次元位置(X,Y,Z)を計算した後、距離や高さの値が3次元ウインドウWD3の範囲内にあるデータのみを抽出し、他は棄却する。   That is, first, each data in the two-dimensional window WD2 is sequentially surveyed for each object, and the three-dimensional position (X, Y, After calculating Z), only data whose distance and height values are within the range of the three-dimensional window WD3 are extracted, and the others are rejected.

このようにして抽出したデータを、2次元の画像上に投影して表示すると図19のようになる。さらに、これらのデータの外形を線分で連結すると、図20に示すような物体の輪郭像が得られる。この輪郭像の左右端および上端の画像上での座標(i,j)を検出し、続いて、その物体の検出距離Zと(3),(4)式を用いて、3次元空間での物体の左右端と上端の位置を算出すると、左右端の位置から物体の横幅が求まり、上端の位置から物体の高さが求まる。図20においては、幅1.7m、高さ1.3mの物体と判別できる。   When the data extracted in this way is projected and displayed on a two-dimensional image, it is as shown in FIG. Furthermore, when the outlines of these data are connected by line segments, a contour image of the object as shown in FIG. 20 is obtained. The coordinates (i, j) on the left and right end and top end images of this contour image are detected, and then the detected distance Z of the object and the equations (3) and (4) are used to determine the three-dimensional space. When the positions of the left and right ends and the upper end of the object are calculated, the horizontal width of the object is obtained from the positions of the left and right ends, and the height of the object is obtained from the position of the upper end. In FIG. 20, it can be identified as an object having a width of 1.7 m and a height of 1.3 m.

一方、マイクロプロセッサ120bによる側壁検出部140の機能は、立体物データ抽出部141、側壁直線検出部142、及び、側壁範囲検出部143に細分され、側壁と道路との区別を道路表面からの高さによって行ない、側壁と遠方の背景との区別を、前後方向と横方向の距離によって行なうことにより、側壁が存在すると推定される周辺のデータのみを抽出し、続いて側壁のデータは水平方向に直線的に並んでいる特徴に注目してこれをハフ変換によって検出し、位置を求める。   On the other hand, the function of the side wall detection unit 140 by the microprocessor 120b is subdivided into a three-dimensional object data extraction unit 141, a side wall straight line detection unit 142, and a side wall range detection unit 143. By separating the side wall and the distant background by the distance in the front-rear direction and the lateral direction, only the peripheral data where the side wall is presumed to be extracted is extracted. Focusing on the features arranged in a straight line, this is detected by the Hough transform, and the position is obtained.

すなわち、前記立体物データ抽出部141は、前記距離分布の情報の中から予め設定された道路表面より上にあるデータのみを抽出し、前記側壁直線検出部142は、抽出した立体物データの中から、予め設定された側壁の探索領域内のデータのみを抽出し、これをハフ変換で処理して側壁の有無と側壁の位置を示す直線式とを検出する。また、前記側壁範囲検出部143は、側壁の位置を示す直線式に基づいて、側壁が存在すると推定される側壁候補領域を設定し、この側壁候補領域内の立体物データの分布状態から側壁の前後端の位置を検出する。   That is, the three-dimensional object data extraction unit 141 extracts only the data above the preset road surface from the distance distribution information, and the side wall straight line detection unit 142 extracts the three-dimensional object data. From this, only the data in the preset side wall search region is extracted, and this is processed by Hough transform to detect the presence or absence of the side wall and the linear expression indicating the position of the side wall. Further, the side wall range detection unit 143 sets a side wall candidate region where a side wall is estimated to exist based on a linear expression indicating the position of the side wall, and determines the side wall from the distribution state of the three-dimensional object data in the side wall candidate region. Detect the position of the front and rear ends.

詳細には、側壁は立体物の一種であるから、まず、立体物データ抽出部141で、道路表面より上にある立体物のデータを距離画像の中から抽出する。この際、高さHが0.1m程度以下の立体物は、前述したように、道路上の白線や汚れ、影等と考えられるため、この立体物のデータは棄却する。また、車輌の高さより上にある立体物も、歩道橋や標識等と考えられるので棄却し、道路上の立体物のデータのみを選別する。   Specifically, since the side wall is a kind of three-dimensional object, first, the three-dimensional object data extraction unit 141 extracts the data of the three-dimensional object above the road surface from the distance image. At this time, a solid object having a height H of about 0.1 m or less is considered to be a white line, a dirt, a shadow, or the like on the road as described above, and therefore the data of this solid object is rejected. In addition, solid objects above the height of the vehicle are also considered as pedestrian bridges, signs, etc., so they are rejected, and only the solid objects on the road are selected.

また、前記立体物データ抽出部141では画面に写っている広範囲の立体物のデータが抽出されるが、これら全てを処理することは合理的でないため、側壁直線検出部142では側壁を探索する領域に制限を設ける。   The solid object data extraction unit 141 extracts a wide range of three-dimensional object data on the screen. However, since it is not reasonable to process all of these, the side wall straight line detection unit 142 searches for the side wall. Set a limit on

この場合、距離画像が計測される範囲を上から見ると、CCDカメラ11の視野に制限されて図21のようになっており、道路を通常走行している場合には、側壁は車輌1の左側と右側に、車輌1と概ね平行に存在する。一方、遠くの側壁は、距離データの精度の面から検出が困難になり、且つ、検出の必要性も小さい。そこで、これらを考慮し、図示したような左側と右側の2つの探索領域SL,SRを設定し、左側と右側の側壁を別々に検出して行く。   In this case, when the range in which the distance image is measured is viewed from above, it is limited to the field of view of the CCD camera 11 as shown in FIG. 21, and the side wall of the vehicle 1 is normal when traveling on a road. On the left side and the right side, the vehicle 1 exists substantially in parallel. On the other hand, it is difficult to detect the far side wall from the viewpoint of accuracy of distance data, and the necessity for detection is small. Therefore, considering these, two left and right search areas SL and SR as shown are set, and the left and right side walls are detected separately.

すなわち、左右両側の側壁を検出するには、まず、側壁直線検出部142で左側の探索領域SLを設定して側壁直線検出処理及び側壁範囲検出処理を行なって左側の側壁を検出した後、再び側壁直線検出部142で右側の探索領域SRを設定し、同様の処理を繰り返して右側の側壁を検出するのである。   That is, in order to detect the left and right side walls, first, the side wall straight line detection unit 142 sets the left search area SL, performs the side wall straight line detection process and the side wall range detection process, detects the left side wall, and then again. The right side search area SR is set by the side wall straight line detection unit 142, and the same process is repeated to detect the right side wall.

各探索領域SL,SRに含まれる立体物データを抽出するには、前記立体物データ抽出部141で抽出された各データの被写体の3次元位置(X,Z座標)を計算し、この3次元位置(X,Z)と各探索領域SL,SRとを、それぞれ比較して判定する。   In order to extract the three-dimensional object data included in the search areas SL and SR, the three-dimensional position (X, Z coordinates) of the subject of each data extracted by the three-dimensional object data extraction unit 141 is calculated, and this three-dimensional The position (X, Z) and each search area SL, SR are compared and determined.

例えば図22に示すような状況では、画像上に前記各探索領域SL,SRを図示すると破線のようになり、これらの探索領域内にも、目的とする側壁の他に様々な立体物が存在する。さらに、距離画像にはノイズ状の偽データも含まれており、実際には物体が存在しない空間にデータのみが分散して存在する。これらのデータを模式的に示すと図23のようになり、この中で側壁は、そのデータが直線状に並んでいる特徴がある。そこで、ハフ変換を使用してデータの列の直線式を検出することによって側壁の検出を行なう。   For example, in the situation shown in FIG. 22, when the search areas SL and SR are illustrated on the image, they appear as broken lines, and various three-dimensional objects exist in these search areas in addition to the target side wall. To do. Further, the distance image includes noise-like fake data, and only the data exists in a space where no object actually exists. When these data are schematically shown in FIG. 23, the side walls are characterized in that the data are arranged in a straight line. Therefore, the side wall is detected by detecting the linear expression of the data string using the Hough transform.

このハフ変換による直線式の検出について説明すると、まず、図24の立体物データPi(座標Xi,Zi)に対し、このデータPiの点を通る直線Fiを想定する。この直線の式は、以下の(8)式で示される。
X=afi×Z+bfi (8)
The detection of the linear expression by the Hough transform will be described. First, a straight line Fi passing through the point of the data Pi is assumed with respect to the three-dimensional object data Pi (coordinates Xi, Zi) in FIG. The equation of this straight line is shown by the following equation (8).
X = afi * Z + bfi (8)

次に図25に示すように、縦軸が式(8)の傾きaf、横軸が切片bfのパラメータ空間を設定し、式(8)のパラメータafi,bfiに相当する位置に投票を行う。   Next, as shown in FIG. 25, a parameter space is set such that the vertical axis represents the slope af of equation (8) and the horizontal axis represents the intercept bf, and voting is performed at positions corresponding to the parameters afi and bfi of equation (8).

ここで、傾きafiの値は、前述したように側壁は車輌1と概ね平行と考えられるため、一般道路では、例えば±20゜(afi:±0.36)程度の範囲で変化させれば実用上十分である。また、切片bfi の値は、左側の側壁を検出する場合、車輌1の左脇である例えばX=−1mから−10m程度の範囲、右側の側壁を検出する場合には、例えばX=+1mから+10m程度の範囲に制限する。このように、制限範囲を例えば±10m程度にするのは、あまり遠く離れた側壁の検出は実用面の必要性が小さいためである。   Here, since the side wall of the slope afi is considered to be substantially parallel to the vehicle 1 as described above, it is practical if it is changed within a range of about ± 20 ° (afi: ± 0.36) on a general road. Above is enough. The value of the intercept bfi is, for example, from the left side of the vehicle 1 when detecting the left side wall, for example, in the range of about X = -1 m to -10 m, and when detecting the right side wall, for example, from X = + 1 m. Limit to about + 10m. Thus, the reason why the limit range is set to about ± 10 m, for example, is that the detection of side walls that are too far away requires less practical use.

このような制限により、パラメータ空間上で投票が行われる範囲は、図25に示すような矩形領域となり、この矩形領域はさらに格子状に分割されて各格子毎に投票される。式(8)の傾きafiは、所定の変化範囲内(例えば±10゜〜±20゜)であり、格子間隔Δaf毎に順次変化させて設定する。切片bfiは、設定された傾きafiと立体物データPiの座標(Xi,Zi)を式(8)に代入して算出され、これが前記制限範囲内であればパラメータ空間の該当する格子に投票される。   Due to such a restriction, the range in which voting is performed in the parameter space is a rectangular area as shown in FIG. 25, and this rectangular area is further divided into a grid and voted for each grid. The slope afi of the equation (8) is within a predetermined change range (for example, ± 10 ° to ± 20 °), and is set by sequentially changing every lattice interval Δaf. The intercept bfi is calculated by substituting the set inclination afi and the coordinates (Xi, Zi) of the three-dimensional object data Pi into the equation (8), and if this is within the limit range, it is voted for the corresponding lattice in the parameter space. The

検出される側壁の位置、すなわち直線式の傾きと切片の検出精度は、格子間隔Δaf,Δbfによって決定され、格子間隔Δaf,Δbfの設定は、側壁の情報を利用する外部装置側の要求に基づいて行なわれる。例えば、道路を通常走行する場合の衝突等の危険の検知として利用する場合には、格子間隔Δafは1〜2゜程度、格子間隔Δbfは0.3〜0.6m程度が良い。   The position of the detected side wall, that is, the linear inclination and the intercept detection accuracy are determined by the lattice spacings Δaf and Δbf, and the setting of the lattice spacings Δaf and Δbf is based on a request on the external device side using the side wall information. It is done. For example, when used for detecting a danger such as a collision in normal driving on a road, the lattice interval Δaf is preferably about 1 to 2 ° and the lattice interval Δbf is preferably about 0.3 to 0.6 m.

以上のようにして探索領域内の全立体物データに対してパラメータ空間への投票を行なう際、図24に示すように、直線的に並んだデータが存在すると、このデータの列と一致するように設定した直線のパラメータafi,bfiに相当するパラメータ空間の格子は多くの得票を得て、左右の投票領域SL,SR毎に局所極大値が現れる。   When voting to the parameter space for all three-dimensional object data in the search area as described above, if there is linearly arranged data, as shown in FIG. The grid in the parameter space corresponding to the straight line parameters afi and bfi set to obtain a large number of votes, and local maximum values appear for the left and right voting areas SL and SR.

側壁が存在し、明確な立体物データの列があるとパラメータ空間の局所極大値は大きな値を示し、一方、側壁が無く、複数の物体が分散して存在する状態では局所極大値は小さい値を示す。従って、パラメータ空間の左右の投票領域SL,SR毎に局所極大値を検出し、検出した局所極大値が判定値以上であれば側壁が存在すると判定することができる。判定値は設定する探索領域の大きさや格子の間隔等を考慮して設定する。   When there is a side wall and there is a clear three-dimensional object data row, the local maximum value in the parameter space shows a large value, while in the state where there are no side walls and multiple objects are present, the local maximum value is a small value. Indicates. Therefore, the local maximum value is detected for each of the left and right voting areas SL and SR in the parameter space, and if the detected local maximum value is greater than or equal to the determination value, it can be determined that a side wall exists. The determination value is set in consideration of the size of the search area to be set, the lattice interval, and the like.

次に、前記側壁直線検出部142で側壁有りと判定された場合には、側壁範囲検出部143で側壁の前後端の位置を検出する。局所極大値の格子に相当するパラメータaf,bfを読み出すと、側壁は、次の直線式(9)に沿って存在すると推定され、図24の例で検出された直線式を図示すると図26に示す直線Ffとなる。
X=af×Z+bf (9)
Next, when the side wall straight line detection unit 142 determines that there is a side wall, the side wall range detection unit 143 detects the positions of the front and rear ends of the side wall. When the parameters af and bf corresponding to the local maximum value lattice are read, the side wall is estimated to exist along the following linear equation (9), and the linear equation detected in the example of FIG. 24 is illustrated in FIG. It becomes the straight line Ff shown.
X = af × Z + bf (9)

まず、直線Ffを中心として幅0.3m〜1.0m程度の領域を側壁候補領域Tfとすると、この領域は、さらに図26のようにZ方向に区分される。側壁候補領域Tfの幅は、前記パラメータ空間の格子の間隔Δbfにデータの誤差等を考慮して設定する。   First, if a region having a width of about 0.3 m to 1.0 m around the straight line Ff is defined as a sidewall candidate region Tf, this region is further divided in the Z direction as shown in FIG. The width of the sidewall candidate region Tf is set in consideration of a data error or the like in the lattice space Δbf of the parameter space.

次に、前記探索領域内の立体物データを順次サーベイし、側壁候補領域Tf内にあるデータのみを抽出した後、区分毎に立体物データの個数をカウントし、ヒストグラムを作成する。これを模式的に示すと図27のようになり、側壁が存在する部分では大きな度数を示す。従って、度数が判定値以上の区分を検出することによって、この範囲に側壁が存在すると判断することができ、その両端の3次元位置を計算して側壁の前後端位置とする。図24の例では、探索領域SRの上端が側壁(ガードレール400)の後端位置とみなされる。図28は以上の処理で検出した側壁を枠線で示したものであり、この例では、右側のガードレール400が検出される。   Next, the three-dimensional object data in the search area is sequentially surveyed, and only the data in the sidewall candidate area Tf is extracted. Then, the number of the three-dimensional object data is counted for each section, and a histogram is created. This is schematically shown in FIG. 27, and shows a large frequency in the portion where the side wall exists. Therefore, it is possible to determine that a side wall exists in this range by detecting a segment whose frequency is equal to or greater than the determination value, and calculate the three-dimensional positions of both ends thereof as the front and rear end positions of the side wall. In the example of FIG. 24, the upper end of the search region SR is regarded as the rear end position of the side wall (guardrail 400). FIG. 28 shows the side wall detected by the above processing with a frame line. In this example, the right guard rail 400 is detected.

以上のようにして、距離画像から道路上の各物体の位置、形状等のパラメータが求められ、立体物パラメータ記憶部150に書き込まれると、マイクロプロセッサ120cからなる隙間距離算出部160では、自車輌1と検出した物体との間の左右の隙間距離を算出する。   As described above, when the parameters such as the position and shape of each object on the road are obtained from the distance image and written to the three-dimensional object parameter storage unit 150, the gap distance calculation unit 160 including the microprocessor 120c causes the vehicle The left and right gap distance between 1 and the detected object is calculated.

例えば前述した図9の画像例では、駐車車輌200,300の自車輌1側の前方の縁のX座標をXL,XR、ガードレール400の前方の端のX座標をXWRとすると、図29に示すように、自車輌1の左側の延長線と左側の駐車車輌200の縁との間の距離DLは、自車輌1の車幅をWとして以下の(10)式で算出され、また、自車輌1の右側の延長線と右側の駐車車輌300との間の距離DRは(11)式で算出され、さらに、自車輌1の右側の延長線と右側のガードレール400との間の距離DWRは(12)式で算出される。
DL =|XL |−W/2 (10)
DR =|XR |−W/2 (11)
DWR=|XWR|−W/2 (12)
For example, in the image example of FIG. 9 described above, when the X coordinates of the front edge of the parked vehicles 200 and 300 on the own vehicle 1 side are XL and XR, and the X coordinate of the front end of the guard rail 400 is XWR, FIG. Thus, the distance DL between the extension line on the left side of the own vehicle 1 and the edge of the left parked vehicle 200 is calculated by the following equation (10), where the width of the own vehicle 1 is W, and the own vehicle 1 The distance DR between the right extension line of 1 and the right parked vehicle 300 is calculated by the equation (11), and the distance DWR between the right extension line of the vehicle 1 and the right guard rail 400 is ( It is calculated by equation (12).
DL = | XL | -W / 2 (10)
DR = | XR | -W / 2 (11)
DWR = | XWR | −W / 2 (12)

そして、(10),(11),(12)式による計算を各縁について行う。そして、左右それぞれの最小値を求めると、この最小値が最近接距離すなわち隙間距離となり、この隙間距離に若干の余裕、例えば相手車のバックミラー等のための余裕を加えてディスプレイ3に出力し、前述の図3のようにディスプレイ3に表示させる。   Then, the calculation according to the equations (10), (11), and (12) is performed for each edge. When the left and right minimum values are obtained, the minimum value becomes the closest distance, that is, the gap distance, and this gap distance is output to the display 3 with a slight margin, for example, a margin for the rearview mirror of the opponent vehicle. Then, it is displayed on the display 3 as shown in FIG.

尚、図9の画像例では、ガードレール400との距離DWRより駐車車輌300との距離DRの方が小さいので、右側隙間距離として駐車車輌300との距離DRを採用し、ディスプレイ3に出力する。   In the image example of FIG. 9, since the distance DR to the parked vehicle 300 is smaller than the distance DWR to the guard rail 400, the distance DR to the parked vehicle 300 is adopted as the right gap distance and output to the display 3.

また、ディスプレイ3に表示する隙間距離の数値には、例えば1mといったしきい値を設け、このしきい値以上の数値は表示しないようになっている。これは、隙間が十分大きい場合には、数値を表示する意味が少ないからである。   Further, the numerical value of the gap distance displayed on the display 3 is provided with a threshold value such as 1 m, for example, and a numerical value greater than this threshold value is not displayed. This is because it is less meaningful to display numerical values when the gap is sufficiently large.

次に、イメージプロセッサ20及び距離画像処理用コンピュータ120の動作について説明する。   Next, operations of the image processor 20 and the distance image processing computer 120 will be described.

図30は、イメージプロセッサ20の動作の流れを示すフローチャートであり、まず、ステップS101で左右のCCDカメラ11a,11bによって撮像した画像を入力すると、ステップS102で、入力したアナログ画像をA/Dコンバータ31a,31bで所定の輝度階調を有するデジタル画像にA/D変換した後、LUT32a,32bで、低輝度部分のコントラスト増強、左右のCCDカメラ11a,11bの特性補償等を行ない、画像メモリ33a,33bに記憶する。   FIG. 30 is a flowchart showing the operation flow of the image processor 20. First, when images taken by the left and right CCD cameras 11a and 11b are input in step S101, the input analog image is converted into an A / D converter in step S102. After A / D conversion into digital images having a predetermined luminance gradation by 31a and 31b, the LUTs 32a and 32b perform contrast enhancement of the low luminance part, compensation of characteristics of the left and right CCD cameras 11a and 11b, and the like, and the image memory 33a. , 33b.

これらの画像メモリ33a,33bに記憶される画像は、CCDカメラ11a,11bのCCD素子の全ラインのうち、その後の処理に必要なラインのみであり、例えば0.1秒に1回の割合(テレビ画像で3枚に1枚の割合)で書き換えられる。   The images stored in these image memories 33a and 33b are only the lines necessary for the subsequent processing among all the lines of the CCD elements of the CCD cameras 11a and 11b. For example, the image is stored once every 0.1 seconds ( TV images are rewritten at a rate of 1 in 3).

次に、ステップS103へ進むと、左右画像用の画像メモリ33a,33bから入力バッファメモリ41a,41b,42a,42bへ、共通バス80を介して、例えば4ラインずつ左右画像データが読み込まれ、読み込んだ左右画像のマッチング、すなわち一致度の評価が行なわれる。   Next, in step S103, left and right image data is read, for example, by four lines from the image memories 33a and 33b for the left and right images to the input buffer memories 41a, 41b, 42a and 42b via the common bus 80. The left and right images are matched, that is, the degree of coincidence is evaluated.

その際、左右の画像毎に、前記画像メモリ33a,33bから前記入力バッファメモリ41a,41b,42a,42bへの読み込み動作と、シフトレジスタ43a,43b,44a,44bに対する書き込み動作とが交互に行なわれる。例えば、左画像では、画像メモリ33aから一方の入力バッファメモリ41aに画像データが読み込まれている間に、他方の入力バッファメモリ41bからシフトレジスタ43bへ読み込んだ画像データの書き出しが行なわれ、右画像では、画像メモリ33bから一方の入力バッファメモリ42aに画像データが読み込まれている間に、他方の入力バッファメモリ42bからシフトレジスタ44bへ読み込んだ画像データの書き出しが行なわれる。   At this time, for each of the left and right images, a read operation from the image memories 33a, 33b to the input buffer memories 41a, 41b, 42a, 42b and a write operation to the shift registers 43a, 43b, 44a, 44b are alternately performed. It is. For example, in the left image, while the image data is being read from the image memory 33a to the one input buffer memory 41a, the image data read from the other input buffer memory 41b is written to the shift register 43b, and the right image is written. Then, while the image data is being read from the image memory 33b to the one input buffer memory 42a, the image data read from the other input buffer memory 42b to the shift register 44b is written.

図31に示すように、前記シフトレジスタ43a,43b,44a,44bには、左右の4×4画素の小領域の画像データ(1,1)…(4,4)が保存され、一方のシフトレジスタ43a(44a)には1、2ラインのデータが、もう一方のシフトレジスタ43b(44b)には3、4ラインのデータが、それぞれ1画素毎に奇数ライン、偶数ラインの順序で入る。前記各シフトレジスタ43a,43b,44a,44bは、それぞれが独立した転送ラインを持ち、4×4画素のデータは例えば8クロックで転送される。   As shown in FIG. 31, the shift registers 43a, 43b, 44a and 44b store image data (1, 1)... (4, 4) of small areas of 4 × 4 pixels on the left and right, and one shift The register 43a (44a) contains 1 and 2 lines of data, and the other shift register 43b (44b) contains 3 and 4 lines of data in the order of odd lines and even lines for each pixel. Each of the shift registers 43a, 43b, 44a, and 44b has an independent transfer line, and 4 × 4 pixel data is transferred in, for example, 8 clocks.

そして、これらのシフトレジスタ43a,43b,44a,44bから8段のうちの偶数段の内容が同時にシティブロック距離計算回路45に出力され、シティブロック距離Hの計算が始まると、右画像のデータはシフトレジスタ44a,44b内に保持されて、クロック毎に奇数ライン、偶数ラインのデータが交互に出力され、一方、左画像のデータはシフトレジスタ43a,43bに転送され続け、奇数ライン、偶数ラインのデータが交互に出力されつつ、2クロック毎に1画素分右のほうにずれたデータに置き換わっていく。この動作を、例えば100画素分ずれるまで(200クロック)繰り返す。   Then, the contents of the even number of the eight stages are simultaneously output from the shift registers 43a, 43b, 44a, and 44b to the city block distance calculation circuit 45, and when the calculation of the city block distance H starts, the data of the right image is The odd-numbered and even-numbered line data are alternately output every clock and held in the shift registers 44a and 44b, while the left image data continues to be transferred to the shift registers 43a and 43b. While data is output alternately, it is replaced with data shifted to the right by one pixel every two clocks. This operation is repeated until, for example, 100 pixels are deviated (200 clocks).

その後、一つの小領域に対する転送が終了すると、#2アドレスコントローラ87内の左画像用アドレスカウンタに右画像用アドレスカウンタの内容(次の4×4画素の小領域の先頭アドレス)がセットされ、次の小領域の処理が始まる。   Thereafter, when the transfer to one small area is completed, the contents of the right image address counter (the start address of the next small area of 4 × 4 pixels) are set in the left image address counter in the # 2 address controller 87. Processing of the next small area begins.

シティブロック距離計算回路45では、図32のタイミングチャートに示すように、まず、ピラミッド型構造初段の絶対値演算器に8画素分のデータを入力し、左右画像の輝度差の絶対値を計算する。すなわち、右画素の輝度から対応する左画素の輝度を引き算し、結果が負になった場合、演算命令を変えることにより、引く方と引かれる方を逆にして再び引き算を行なうことにより、絶対値の計算を行なう。従って、初段では引き算を2回行なう場合がある。   In the city block distance calculation circuit 45, as shown in the timing chart of FIG. 32, first, data for 8 pixels is input to the absolute value calculator of the first stage of the pyramid structure, and the absolute value of the luminance difference between the left and right images is calculated. . That is, when the luminance of the corresponding left pixel is subtracted from the luminance of the right pixel and the result becomes negative, by changing the operation instruction, the subtraction is reversed and the subtraction is performed again. Calculate the value. Therefore, subtraction may be performed twice in the first stage.

次いで、初段を通過すると、2段目から4段目までの第1ないし第3加算器で二つの同時入力データを加算して出力する。そして、最終段の総和加算器で二つの連続するデータを加え合わせて総和を計算し、必要とする16画素分のシティブロック距離Hを2クロック毎に最小・最大値検出部50へ出力する。   Next, when the first stage is passed, two simultaneous input data are added and output by the first to third adders from the second stage to the fourth stage. Then, the summation adder at the final stage adds two consecutive data to calculate the sum, and outputs the required city block distance H for 16 pixels to the minimum / maximum value detection unit 50 every two clocks.

次に、ステップS104へ進み、前記ステップS103で算出したシティブロック距離Hの最大値HMAX、最小値HMINを検出する。前述したように、この最大値HMAXの検出と最小値HMINの検出とは、互いに論理が逆になることと、ずれ量を保存しないこと以外は、全く同じであるため、以下、代表して最小値HMINの検出について説明する。   In step S104, the maximum value HMAX and the minimum value HMIN of the city block distance H calculated in step S103 are detected. As described above, the detection of the maximum value HMAX and the detection of the minimum value HMIN are exactly the same except that the logics are opposite to each other and the deviation amount is not stored. The detection of the value HMIN will be described.

まず、最初に出力されてきたシティブロック距離H(ずれ量x=0)が、図8に示す最小値検出回路51のCラッチ53を介して、演算器46のBレジスタ46bに入力される。次のクロックで出力されてきたシティブロック距離H(ずれ量δ=1)は、Cラッチ53と演算器46のAレジスタ46aとに入れられ、演算器46では、同時に、Bレジスタ46bとの比較演算が始まる。   First, the city block distance H (shift amount x = 0) output first is input to the B register 46b of the computing unit 46 via the C latch 53 of the minimum value detection circuit 51 shown in FIG. The city block distance H (shift amount δ = 1) output at the next clock is input to the C latch 53 and the A register 46a of the arithmetic unit 46, and the arithmetic unit 46 simultaneously compares it with the B register 46b. Calculation begins.

前記演算器46での比較演算の結果、Bレジスタ46bの内容よりもAレジスタ46aの内容の方が小さければ、次のクロックのときに、Cラッチ53の内容(すなわちAレジスタ46aの内容)がBレジスタ46bに送られ、このときのずれ量δがDラッチ55に保存される。このクロックで同時に、次のシティブロック距離H(ずれ量δ=2)がAレジスタ46aとCラッチ53に入れられ、再び比較演算が始まる。   If the content of the A register 46a is smaller than the content of the B register 46b as a result of the comparison operation in the computing unit 46, the content of the C latch 53 (that is, the content of the A register 46a) is the next clock. The shift amount δ at this time is stored in the D latch 55. Simultaneously with this clock, the next city block distance H (deviation amount δ = 2) is entered into the A register 46a and the C latch 53, and the comparison operation starts again.

このようにして、計算途中での最小値が常にBレジスタ46bに、そのときのずれ量δがDラッチ55に保存されながら、ずれ量δが100になるまで計算が続けられる。計算が終了すると(最後のシティブロック距離Hが出力されてから1クロック後)、Bレジスタ46bとDラッチ55の内容はずれ量決定部60に読み込まれる。   In this way, the calculation is continued until the shift amount δ reaches 100 while the minimum value during the calculation is always stored in the B register 46 b and the shift amount δ at that time is stored in the D latch 55. When the calculation is completed (one clock after the last city block distance H is output), the contents of the B register 46 b and the D latch 55 are read into the shift amount determination unit 60.

この間に、前述したシティブロック距離計算回路45では次の小領域の初期値が読み込まれ、時間の無駄を生じないようになっており、一つのシティブロック距離Hを計算するのに、例えば4クロックかかるが、パイプライン構造をとっているため、2クロック毎に新たな計算結果が得られる。   During this time, the city block distance calculating circuit 45 reads the initial value of the next small area so as not to waste time. For example, 4 clocks are used to calculate one city block distance H. However, since it has a pipeline structure, a new calculation result is obtained every two clocks.

そして、前記ステップ104でシティブロック距離Hの最小値HMIN、最大値HMAXが確定すると、ステップS105では、ずれ量決定部60にて、前述した3つの条件がチェックされ、ずれ量xが決定される。   When the minimum value HMIN and the maximum value HMAX of the city block distance H are determined in step 104, in step S105, the deviation amount determination unit 60 checks the above three conditions to determine the deviation amount x. .

すなわち、図33のタイミングチャートに示すように、Bバス62bを介して最小値HMINが演算器61のBレジスタ72にラッチされるとともに、このBレジスタ72の値と比較されるしきい値HAがAバス62aを介してAレジスタ71にラッチされる。そしてALU70で両者が比較され、しきい値HAよりも最小値HMINの方が大きければ、スイッチ回路65がリセットされ、以後のチェックの如何に係わらず常に0が出力されるようになる。   That is, as shown in the timing chart of FIG. 33, the minimum value HMIN is latched in the B register 72 of the arithmetic unit 61 via the B bus 62b, and the threshold value HA to be compared with the value of the B register 72 is Latched into the A register 71 via the A bus 62a. Then, the two are compared by the ALU 70, and if the minimum value HMIN is larger than the threshold value HA, the switch circuit 65 is reset, and 0 is always output regardless of the subsequent checks.

次に、Aレジスタ71に最大値HMAXがラッチされ、このAレジスタ71にラッチされた最大値HMAXとBレジスタ72に保存されている最小値HMINとの差が計算されて、その結果がFレジスタ73に出力される。次のクロックでAレジスタ71にしきい値HBがラッチされ、Fレジスタ73の値と比較される。Aレジスタ71にラッチされたしきい値HBよりもFレジスタ73の内容の方が小さければ同様にスイッチ回路65がリセットされる。   Next, the maximum value HMAX is latched in the A register 71, and the difference between the maximum value HMAX latched in the A register 71 and the minimum value HMIN stored in the B register 72 is calculated. 73 is output. At the next clock, the threshold value HB is latched in the A register 71 and compared with the value of the F register 73. If the content of the F register 73 is smaller than the threshold value HB latched in the A register 71, the switch circuit 65 is similarly reset.

次のクロックからは、隣接画素間の輝度差の計算が始まる。輝度データが保存されている2組のシフトレジスタ64a,64bは10段構成であり、それぞれ、シティブロック距離計算部40の1,2ライン用のシフトレジスタ44aと、3,4ライン用のシフトレジスタ44bの後段に接続されている。前記シフトレジスタ64a,64bの出力は最後の段とその2つ手前の段から取り出され、それぞれが、Aバス62aとBバス62bとに出力される。   From the next clock, calculation of the luminance difference between adjacent pixels begins. The two sets of shift registers 64a and 64b in which luminance data is stored have a 10-stage configuration, and each of the shift registers 44a for 1 and 2 lines of the city block distance calculation unit 40 and the shift register for 3 and 4 lines, respectively. 44b is connected to the subsequent stage. The outputs of the shift registers 64a and 64b are taken out from the last stage and the two stages before it, and are output to the A bus 62a and the B bus 62b, respectively.

輝度差の計算が始まるとき、前記シフトレジスタ64a,64bの各段には小領域中の各場所の輝度データが保持されており、初めに前回の小領域の第4行第1列の輝度データと、今回の小領域の第1行第1列の輝度データとが、演算器61のAレジスタ71とBレジスタ72とにラッチされる。   When the calculation of the luminance difference starts, the luminance data of each location in the small area is held in each stage of the shift registers 64a and 64b. First, the luminance data of the fourth row and the first column of the previous small area are stored. Then, the luminance data in the first row and first column of the current small region are latched in the A register 71 and the B register 72 of the arithmetic unit 61.

そして、Aレジスタ71の内容とBレジスタ72の内容の差の絶対値が計算され、結果がFレジスタ73に保存される。次のクロックでAレジスタ71にしきい値HCがラッチされ、Fレジスタ73の値と比較される。   Then, the absolute value of the difference between the contents of the A register 71 and the B register 72 is calculated, and the result is stored in the F register 73. At the next clock, the threshold value HC is latched in the A register 71 and compared with the value of the F register 73.

前記演算器61での比較結果、Aレジスタの内容(しきい値HC)よりもFレジスタ73の内容(輝度差の絶対値)のほうが大きければ、前記スイッチ回路65からずれ量xあるいは”0”が出力され、、Aレジスタの内容よりもFレジスタ73の内容のほうが小さければ”0”が出力されて、出力バッファメモリ66a,66bの該当する小領域の第1行第1列に当たる位置に書き込まれる。   If the content of the F register 73 (absolute value of the luminance difference) is larger than the content of the A register (threshold value HC) as a result of the comparison in the arithmetic unit 61, the shift amount x or "0" from the switch circuit 65 is obtained. Is output, "0" is output if the content of the F register 73 is smaller than the content of the A register, and is written at the position corresponding to the first row and first column of the corresponding small area of the output buffer memories 66a and 66b. It is.

前記演算器61で隣接画素間の輝度差としきい値HCとの比較が行なわれている間に、シフトレジスタ64a,64bは1段シフトする。そして今度は、前回の小領域の第4行第2列と、今回の小領域の第1行第2列の輝度データに対して計算を始める。このようにして小領域の第1列、第2列に対し交互に計算を行なった後、第3列、第4列に対して同様に計算を進める。   While the arithmetic unit 61 compares the luminance difference between adjacent pixels with the threshold value HC, the shift registers 64a and 64b shift one stage. This time, calculation is started for the luminance data in the fourth row and second column of the previous small region and the first row and second column of the current small region. After the calculation is alternately performed on the first column and the second column of the small area in this manner, the calculation is similarly performed on the third column and the fourth column.

計算中は、シフトレジスタ64a,64bの最終段と最初の段がつながってリングレジスタになっており、小領域全体を計算した後にシフトクロックが2回追加されるとレジスタの内容が計算前の状態に戻り、次の小領域の輝度データが転送され終わったときに、最終段とその前の段に今回の小領域の第4行のデータが留められる。   During the calculation, the last stage and the first stage of the shift registers 64a and 64b are connected to form a ring register, and when the shift clock is added twice after calculating the entire small area, the contents of the register are in the state before the calculation. Returning to FIG. 4, when the luminance data of the next small area has been transferred, the data in the fourth row of the current small area is retained in the last stage and the previous stage.

このように、ずれ量決定のための計算中に次のデータをAバス62a,Bバス62bに用意したり、結果の書き込みを行なうため、計算に必要な2クロックのみで一つのデータが処理される。この結果、初めに行なう最小値HMIN、最大値HMAXのチェックを含めても、例えば43クロックで全ての計算が終了し、一つの小領域に対して、シティブロック距離Hの最小値HMIN、最大値HMAXを求めるのに要する時間は充分に余裕があり、さらに機能を追加することも可能となっている。   Thus, during the calculation for determining the deviation amount, the next data is prepared in the A bus 62a and the B bus 62b and the result is written, so that one data is processed with only two clocks necessary for the calculation. The As a result, even if the check of the minimum value HMIN and the maximum value HMAX to be performed first is included, for example, all calculations are completed in 43 clocks, and the minimum value HMIN and the maximum value of the city block distance H for one small area. The time required to obtain HMAX is sufficient, and it is possible to add more functions.

そして、ずれ量xが決定されると、ステップS106で、出力バッファメモリ66a,66bからデュアルポートメモリ90へ、ずれ量xを距離分布情報として出力し、イメージプロセッサ20における処理が終了する。   When the deviation amount x is determined, in step S106, the deviation amount x is output as distance distribution information from the output buffer memories 66a and 66b to the dual port memory 90, and the processing in the image processor 20 ends.

この出力バッファメモリ66a,66bは、前述した入力バッファメモリ41a,41b,42a,42bと同様、例えば4ライン分の容量があり、2組の一方に書き込んでいる間にもう一方から前記デュアルポートメモリ90へ距離分布情報を送り出す。   The output buffer memories 66a and 66b have a capacity of, for example, four lines as in the case of the input buffer memories 41a, 41b, 42a, and 42b described above, and the dual port memory from the other side while writing to one of two sets. The distance distribution information is sent to 90.

前記デュアルポートメモリ90へ書き込まれた距離分布情報からは、CCDカメラ11,12の取付け位置と焦点距離等のレンズパラメータとから、各画素に対応する物体のXYZ空間における3次元位置を算出することができ、情報量の低下なく車外の対象物までの距離を正確に検出することができる。   From the distance distribution information written in the dual port memory 90, the three-dimensional position of the object corresponding to each pixel in the XYZ space is calculated from the mounting position of the CCD cameras 11 and 12 and the lens parameters such as the focal length. It is possible to accurately detect the distance to the object outside the vehicle without a decrease in the amount of information.

ここで、イメージプロセッサ20の全体のタイミングについて、図34に示すタイミングチャートに従って説明する。   Here, the overall timing of the image processor 20 will be described with reference to the timing chart shown in FIG.

まず初めに、同期を取っている左右のCCDカメラ11a,11bからのフィールド信号を0.1秒毎(3画面に1画面の割合)に、画像メモリ33a,33bに書き込む。   First, field signals from the left and right CCD cameras 11a and 11b that are synchronized are written to the image memories 33a and 33b every 0.1 second (a ratio of one screen to three screens).

次に、取り込み終了信号を受けて、4ライン毎のブロック転送が始まる。この転送は、右画像、左画像、結果の距離分布像の順に3ブロック転送する。   Next, in response to the capture end signal, block transfer for every four lines starts. In this transfer, three blocks are transferred in the order of the right image, the left image, and the resulting distance distribution image.

この間に、一方の入出力バッファメモリに対してずれ量δの計算が行われる。そして、ずれ量δの計算時間を考慮し、所定時間待機してからもう一方の入出力バッファメモリに対して転送を始める。   During this time, the shift amount δ is calculated for one of the input / output buffer memories. Then, taking into account the calculation time of the deviation amount δ, after waiting for a predetermined time, the transfer to the other input / output buffer memory is started.

一つの右画像の4×4画素の小領域に対するシティブロック距離Hの計算は、左画像について100画素ずらしながら計算するため、100回行われる。一つの領域のシティブロック距離Hが計算されている間に、その前の領域のずれ量δが各チェックを経て距離分布として出力される。   The calculation of the city block distance H for a small area of 4 × 4 pixels in one right image is performed 100 times because the calculation is performed while shifting the left image by 100 pixels. While the city block distance H of one region is being calculated, the shift amount δ of the previous region is output as a distance distribution through each check.

処理すべきライン数を200とすると4ライン分の処理を50回繰り返すことになり、計算の開始時に最初のデータを転送するための4ライン分の処理時間、計算終了後に最後の結果を画像認識部に転送するための4ライン分の処理時間と、計8ライン分の処理時間がさらに必要となる。   If the number of lines to be processed is 200, the process for 4 lines is repeated 50 times, the processing time for 4 lines to transfer the first data at the start of calculation, and the final result after the calculation is recognized The processing time for 4 lines and the processing time for a total of 8 lines are required for transfer to the copy.

最初の入力画像ラインの転送を開始してから最後の距離分布を転送し終わるまでの時間は、実際の回路動作の結果、0.076秒である。   The time from the start of the transfer of the first input image line to the end of the transfer of the final distance distribution is 0.076 seconds as a result of the actual circuit operation.

一方、図35及び図36のフローチャートは、マイクロプロセッサ120aで実行される物体検出処理であり、ステップS201で道路表面の位置を設定すると、ステップS202で、イメージプロセッサ20からの距離画像を格子状の領域に区分し、ステップS203で、最初の領域のデータを読み込む。   On the other hand, the flowcharts of FIGS. 35 and 36 are object detection processing executed by the microprocessor 120a. When the position of the road surface is set in step S201, the distance image from the image processor 20 is displayed in a grid pattern in step S202. In step S203, the data of the first area is read.

次に、ステップS204へ進んで、領域内の最初のデータをセットすると、ステップS205で、被写体の3次元位置(X,Y,Z)、すなわち距離と高さを算出し、ステップS206で、距離Zに於ける道路表面の高さを算出し、ステップS207で、道路面より上にあるデータを選別する。   Next, the process proceeds to step S204, and when the first data in the area is set, in step S205, the three-dimensional position (X, Y, Z) of the subject, that is, the distance and height are calculated. In step S206, the distance is calculated. The height of the road surface at Z is calculated, and the data above the road surface is selected in step S207.

そして、ステップS208へ進んで最終データか否かを調べ、最終データでない場合、ステップS209で領域内の次のデータをセットすると、前述のステップS205へ戻って処理を繰り返し、最終データの場合にはステップS208からステップS210へ進む。   Then, the process proceeds to step S208 to check whether or not it is final data.If it is not final data, the next data in the area is set in step S209, and the process returns to the above-described step S205 to repeat the process. The process proceeds from step S208 to step S210.

ステップS210では、ヒストグラムを作成し、ステップS211で、このヒストグラムの度数が判定値以上で、かつ最大値となる区間を検出する。ヒストグラムの度数が判定値以上で、かつ最大値となる区間が検出された場合、ステップS212で、その区間に物体が存在すると判断し、その物体までの距離を検出する。   In step S210, a histogram is created, and in step S211, a section in which the frequency of the histogram is equal to or greater than the determination value and the maximum value is detected. If a section where the frequency of the histogram is equal to or greater than the determination value and the maximum value is detected, it is determined in step S212 that an object exists in the section, and the distance to the object is detected.

そして、ステップS213で、最終領域か否かを調べ、最終領域でない場合には、ステップS214で、次の領域のデータを読み込み、前述のステップS204へ戻って同様の処理を続行し、最終領域である場合には、ステップS215へ進み、各物体の距離と存在領域の検出を終了し、ステップS216以降へ進む。   Then, in step S213, it is checked whether or not it is the final area. If it is not the final area, the data of the next area is read in step S214, and the same processing is continued by returning to the above-described step S204. If there is, the process proceeds to step S215, the detection of the distance and the existence area of each object is terminated, and the process proceeds to step S216 and the subsequent steps.

ステップS216では、最初の物体のパラメータをセットし、次いで、ステップS217で、3次元ウインドウWD3の下端の高さ及び距離範囲を設定し、ステップS218で、この3次元ウインドウWD3に基づいて2次元ウインドウWD2の形状を算出してステップS219へ進む。   In step S216, the parameters of the first object are set. Then, in step S217, the height and distance range of the lower end of the three-dimensional window WD3 are set. In step S218, the two-dimensional window is set based on the three-dimensional window WD3. The shape of WD2 is calculated and the process proceeds to step S219.

ステップS219では、2次元ウインドウWD2内のデータを読み出し、ステップS220で被写体の3次元位置を算出すると、ステップS221へ進んで、3次元ウインドウWD3内に含まれるデータを選別して抽出する。   In step S219, the data in the two-dimensional window WD2 is read, and when the three-dimensional position of the subject is calculated in step S220, the process proceeds to step S221, and the data included in the three-dimensional window WD3 is selected and extracted.

その後、ステップS222へ進み、前記ステップS221で抽出したデータを2次元の画像上に投影すると、ステップS223で、各データを線分で連結して輪郭像を作成する。続いて、ステップS224で、物体の形状、寸法、位置、速度を算出し、ステップS225で、最終物体か否かを調べる。   Thereafter, the process proceeds to step S222, and when the data extracted in step S221 is projected onto a two-dimensional image, in step S223, each data is connected by a line segment to create a contour image. Subsequently, in step S224, the shape, size, position, and speed of the object are calculated, and in step S225, it is checked whether or not the object is the final object.

最終物体でない場合には、ステップS226で次の物体のパラメータをセットして前述のステップS217へ戻り、最終物体である場合には、ステップS227へ進んで、各物体の位置、形状、速度、加速度、衝突の可能性等のパラメータを出力用メモリ125に書き込み、処理を終了する。   If it is not the final object, the parameters of the next object are set in step S226, and the process returns to step S217. If it is the final object, the process proceeds to step S227, where the position, shape, speed, and acceleration of each object are determined. Then, parameters such as the possibility of collision are written in the output memory 125, and the process is terminated.

また、マイクロプロセッサ120bでは、前記マイクロプロセッサ120aによる物体検出処理と並列して図37及び図38に示す側壁検出処理を行なう。この側壁検出処理では、最初に、ステップS301で道路表面の位置を設定すると、ステップS302で、距離画像から最初の距離データを読み込む。   Further, the microprocessor 120b performs the side wall detection process shown in FIGS. 37 and 38 in parallel with the object detection process by the microprocessor 120a. In this side wall detection process, first, when the position of the road surface is set in step S301, the first distance data is read from the distance image in step S302.

次に、ステップS303へ進み、被写体の位置(X,Z座標)と高さ(Y座標)とを計算し、ステップS304で、距離Zに於ける道路表面の高さH(Y座標)を計算し、ステップS305で、道路面より上、且つ自車輌1の高さ以下にあるデータを立体物データとして抽出する。   In step S303, the position (X, Z coordinate) and height (Y coordinate) of the subject are calculated. In step S304, the height H (Y coordinate) of the road surface at the distance Z is calculated. In step S305, data above the road surface and below the height of the vehicle 1 is extracted as three-dimensional object data.

そして、ステップS306へ進んで最終データか否かを調べ、最終データでない場合、ステップS307で次の距離データを読み込むと前述のステップS303へ戻って処理を繰り返し、最終データの場合にはステップS306からステップS308へ進む。   Then, the process proceeds to step S306 to check whether the data is the final data. If the final data is not the final data, the process returns to the above-described step S303 when the next distance data is read in step S307. Proceed to step S308.

ステップS308では、最初の立体物データを読み込み、ステップS309で、被写体の位置(X,Z座標)を計算すると、続くステップS310で、計算した位置(X,Z座標)が探索領域内か否かを調べる。   In step S308, the first three-dimensional object data is read. In step S309, the position (X, Z coordinates) of the subject is calculated. In step S310, whether the calculated position (X, Z coordinates) is within the search area. Check out.

計算した位置(X,Z座標)が探索領域外であるときには、前記ステップS310からステップS312へジャンプし、探索領域内のとき、前記ステップS310からステップS311へ進んでパラメータ空間へ投票し、ステップS312へ進む。   If the calculated position (X, Z coordinates) is outside the search area, the process jumps from step S310 to step S312. If the calculated position (X, Z coordinates) is within the search area, the process proceeds from step S310 to step S311 to vote for the parameter space, and step S312 Proceed to

ステップS312では、処理した立体物データが最終データか否かを調べ、最終データでないときには、ステップS313で、次の立体物データを読み込んで、前述のステップS309からの処理を繰り返し、最終データのとき、ステップS314へ進んで、パラメータ空間上の局所極大値を検出する。   In step S312, it is checked whether or not the processed three-dimensional object data is final data. If it is not final data, the next three-dimensional object data is read in step S313, and the processing from step S309 is repeated. Then, the process proceeds to step S314, and a local maximum value on the parameter space is detected.

次いで、ステップS315へ進むと、検出した局所極大値が判定値以上か否かを調べ、判定値よりも小さいとき、ステップS316で側壁は存在しないと判定し、判定値以上のとき、ステップS317で、側壁が存在すると判定して、ステップS318へ進む。   Next, when proceeding to step S315, it is determined whether or not the detected local maximum value is greater than or equal to the determination value.If the detected local maximum value is smaller than the determination value, it is determined in step S316 that there is no side wall. Then, it is determined that a side wall exists, and the process proceeds to step S318.

ステップS318では、前記ステップS314で検出した局所極大値の格子に相当するパラメータ、すなわち局所極大点が示す直線式のパラメータ(af,bf)を読み込み、次いで、ステップS319で側壁候補領域を設定する。   In step S318, parameters corresponding to the local maximum value lattice detected in step S314, that is, linear parameters (af, bf) indicated by the local maximum points are read, and then in step S319, sidewall candidate regions are set.

そして、ステップS320へ進み、探索領域内の最初の立体物データを読み込むと、ステップS321で、被写体の位置(X,Z座標)を計算し、ステップS322で、側壁候補領域内にあるデータを抽出した後、ステップS323で、処理したデータが探索領域内の最終データか否かを調べる。   Then, the process proceeds to step S320, and when the first three-dimensional object data in the search area is read, the position (X, Z coordinates) of the subject is calculated in step S321, and the data in the sidewall candidate area is extracted in step S322. After that, in step S323, it is checked whether or not the processed data is the final data in the search area.

探索領域内の最終データでないときには、前記ステップS323からステップS324へ分岐して探索領域内の次の立体物データを読み込んで、前述のステップS321へ戻り、探索領域内の最終データであるときには、前記ステップS323からステップS325へ進んで、側壁候補領域内のデータを使ってヒストグラムを作成する。   If it is not the final data in the search area, the process branches from step S323 to step S324 to read the next three-dimensional object data in the search area, and returns to the above-described step S321. Proceeding from step S323 to step S325, a histogram is created using data in the sidewall candidate region.

次に、ステップS326へ進み、作成したヒストグラムの度数が判定値以上の区分を検出すると、ステップS327で、ヒストグラムの度数が判定値以上の区間の両端の3次元位置、すなわち側壁の前後端位置を算出し、ステップS328で、側壁の有無、位置、方向、前後端の位置等のパラメータを出力用メモリ125へ書き込んでプログラムを終了する。尚、このプログラムは、左側の側壁について実行した後、右側の側壁について実行する。   Next, the process proceeds to step S326, and when a category having a frequency of the created histogram equal to or higher than the determination value is detected, in step S327, the three-dimensional positions at both ends of the section in which the frequency of the histogram is equal to or higher than the determination value, In step S328, parameters such as the presence / absence of side walls, position, direction, front and rear end positions, etc. are written in the output memory 125, and the program is terminated. This program is executed for the left side wall and then for the right side wall.

以上の処理により、前方に存在する壁、駐車車輌等の自車輌1からの位置と大きさがわかり、マイクロプロセッサ120cで図39の隙間距離算出処理のプログラムが実行される。   With the above processing, the position and size of the vehicle 1 such as a wall and a parked vehicle existing in front are known, and the program for the clearance distance calculation processing of FIG. 39 is executed by the microprocessor 120c.

この隙間距離算出処理では、ステップS401で、出力用メモリ125から道路上の各物体の自車輌1側の縁の位置及び側壁の端部の位置を入力すると、ステップS402で、各物体の縁及び側壁の端部と、自車輌1の側部の延長線との間のX方向の距離を左右別々に求める。   In this gap distance calculation process, when the position of the edge of the vehicle 1 side of each object on the road and the position of the end of the side wall are input from the output memory 125 in step S401, the edge of each object and The distance in the X direction between the end portion of the side wall and the extension line of the side portion of the host vehicle 1 is obtained separately on the left and right sides.

次いで、ステップS403へ進み、前記ステップS402で求めた各距離の最小値を左右別々に求め、ステップS404で左右それぞれの最小値を隙間距離として若干の余裕を加え、ディスプレイコントローラ126を介してディスプレイ3に数値を表示する。   Next, the process proceeds to step S403, where the minimum values of the distances determined in step S402 are obtained separately on the left and right sides, and in step S404, a slight margin is added with the minimum values of the left and right as the gap distances, and the display 3 is displayed via the display controller 126. The numerical value is displayed in.

走行案内装置の全体構成図Overall configuration diagram of the travel guidance device 走行案内装置の回路ブロック図Circuit block diagram of travel guidance device ディスプレイの画面を示す説明図Explanatory drawing showing the screen of the display 車輌の正面図Front view of the vehicle カメラと被写体との関係を示す説明図Explanatory diagram showing the relationship between the camera and the subject イメージプロセッサの詳細回路図Detailed circuit diagram of the image processor シティブロック距離計算回路の説明図Illustration of city block distance calculation circuit 最小値検出回路のブロック図Block diagram of minimum value detection circuit 車載のCCDカメラで撮像した画像の例を示す説明図Explanatory drawing which shows the example of the image imaged with the vehicle-mounted CCD camera 距離画像の例を示す説明図Explanatory drawing showing an example of a distance image 車輌の上面図Top view of the vehicle 車輌の側面図Side view of the vehicle 距離画像処理用コンピュータの機能ブロック図Functional block diagram of a distance image processing computer 画像の区分方法を示す説明図Explanatory diagram showing how to classify images 検出物体とヒストグラムの関係を示す説明図Explanatory diagram showing the relationship between the detected object and the histogram 物体の存在領域の検出結果と検出距離の例を示す説明図Explanatory drawing which shows the example of the detection result and detection distance of the existence area of an object 物体検出用の3次元ウインドウの形状を示す説明図Explanatory drawing showing the shape of a three-dimensional window for object detection 物体検出用の2次元ウインドウの形状を示す説明図Explanatory drawing showing the shape of a two-dimensional window for object detection 物体の輪郭を構成するデータの例を示す説明図Explanatory drawing which shows the example of the data which comprise the outline of an object 物体の輪郭像と検出された外形寸法の例を示す説明図Explanatory drawing which shows the example of the outline image of an object and the detected external dimension 側壁検出における探索領域の形状を示す説明図Explanatory drawing which shows the shape of the search area | region in a side wall detection 画像上の側壁探索領域を示す説明図Explanatory drawing which shows the side wall search area | region on an image 立体物データの分布状況を示す説明図Explanatory diagram showing the distribution of three-dimensional object data ハフ変換での直線の想定を示す説明図Explanatory diagram showing the assumption of straight lines in Hough transform パラメータ空間の投票領域を示す説明図Explanatory drawing showing the voting area of the parameter space 側壁候補領域を示す説明図Explanatory drawing which shows a side wall candidate area | region ヒストグラムと側壁の存在範囲の関係を示す説明図Explanatory drawing which shows the relationship between a histogram and the existence range of a side wall 側壁の検出結果を示す説明図Explanatory drawing which shows the detection result of a side wall 隙間距離算出の説明図Explanation of gap distance calculation イメージプロセッサの動作を示すフローチャートFlow chart showing operation of image processor シフトレジスタ内の保存順序を示す説明図Explanatory drawing which shows the preservation order in the shift register シティブロック距離計算回路の動作を示すタイミングチャートTiming chart showing operation of city block distance calculation circuit ずれ量決定部の動作を示すタイミングチャートTiming chart showing operation of deviation amount determination unit イメージプロセッサの全体の動作を示すタイミングチャートTiming chart showing the overall operation of the image processor 物体検出処理のフローチャートFlow chart of object detection processing 物体検出処理のフローチャート(続き)Flow chart of object detection processing (continued) 側壁検出処理のフローチャートSidewall detection process flowchart 側壁検出処理のフローチャート(続き)Sidewall detection process flowchart (continued) 隙間距離算出処理のフローチャートFlow chart of gap distance calculation processing

符号の説明Explanation of symbols

1 車輌
2 走行案内装置
3 ディスプレイ
10 ステレオ光学系
15 ステレオ画像処理手段
100 立体物検出手段
110 隙間距離算出手段
代理人 弁理士 伊 藤 進
DESCRIPTION OF SYMBOLS 1 Vehicle 2 Traveling guidance apparatus 3 Display 10 Stereo optical system 15 Stereo image processing means 100 Three-dimensional object detection means 110 Crevice distance calculation means
Agent Patent Attorney Susumu Ito

Claims (2)

車輌に搭載した撮像系で撮像した車外の対象のステレオ画像対を処理し、このステレオ画像対の対応位置のずれ量から三角測量の原理によって画像全体に渡る距離分布を求めるステレオ画像処理手段と、
前記ステレオ画像処理手段からの距離分布の情報に対応する被写体の各部分の3次元位置を計算し、計算した3次元位置の情報を用いて複数の立体物を検出する立体物検出手段と、
前記立体物検出手段で検出した複数の立体物の位置情報に基づき、複数の立体物の自車輌側の縁と自車輌側部の延長線との間の最近接距離を隙間距離として左右それぞれに算出する隙間距離算出手段と、
前記隙間距離算出手段で算出した隙間距離に係わる情報を表示するディスプレイ装置とを備えたことを特徴とする車輌用走行案内装置。
Stereo image processing means for processing a stereo image pair of an object outside the vehicle imaged by an imaging system mounted on a vehicle, and obtaining a distance distribution over the entire image by the principle of triangulation from a shift amount of a corresponding position of the stereo image pair;
A three- dimensional object detection means for calculating a three-dimensional position of each part of the subject corresponding to the distance distribution information from the stereo image processing means , and detecting a plurality of three-dimensional objects using the calculated three-dimensional position information ;
Based on the position information of the plurality of three-dimensional objects detected by the three-dimensional object detection means, the closest distance between the edge of the plurality of three-dimensional objects on the vehicle side and the extension line of the vehicle side is defined as the gap distance on each of the left and right sides. A gap distance calculating means for calculating;
A vehicle travel guide apparatus comprising: a display device that displays information related to the gap distance calculated by the gap distance calculating means.
車輌に搭載した撮像系で撮像した車外の対象のステレオ画像対を処理し、このステレオ画像対の対応位置のずれ量から三角測量の原理によって距離分布を求めるステレオ画像処理手段と、
前記ステレオ画像処理手段からの距離分布の情報に対応する被写体の3次元位置を計算し、複数の立体物の位置情報を検出する立体物検出手段と、
前記立体物検出手段で検出した複数の立体物の位置情報に基づき、複数の立体物の自車輌側の縁と自車輌側部の延長線との間の最近接距離を隙間距離として左右それぞれに算出する隙間距離算出手段と、
前記隙間距離算出手段で算出した隙間距離に係わる情報を表示するディスプレイ装置とを備えたことを特徴とする車輌用走行案内装置。
A stereo image processing means for processing a stereo image pair of an object outside the vehicle imaged by an imaging system mounted on a vehicle, and obtaining a distance distribution by a principle of triangulation from a deviation amount of a corresponding position of the stereo image pair;
A three-dimensional object detection means for calculating a three-dimensional position of a subject corresponding to the distance distribution information from the stereo image processing means and detecting position information of a plurality of three-dimensional objects;
Based on the position information of the plurality of three-dimensional objects detected by the three-dimensional object detection means, the closest distance between the edge of the plurality of three-dimensional objects on the vehicle side and the extension line of the vehicle side is defined as the gap distance on each of the left and right sides. A gap distance calculating means for calculating;
A vehicle travel guide apparatus comprising: a display device that displays information related to the gap distance calculated by the gap distance calculating means .
JP2003420060A 2003-12-17 2003-12-17 Vehicle travel guidance device Expired - Lifetime JP3762406B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003420060A JP3762406B2 (en) 2003-12-17 2003-12-17 Vehicle travel guidance device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003420060A JP3762406B2 (en) 2003-12-17 2003-12-17 Vehicle travel guidance device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP33019193A Division JP3522317B2 (en) 1993-12-27 1993-12-27 Travel guide device for vehicles

Publications (2)

Publication Number Publication Date
JP2004168304A JP2004168304A (en) 2004-06-17
JP3762406B2 true JP3762406B2 (en) 2006-04-05

Family

ID=32709352

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003420060A Expired - Lifetime JP3762406B2 (en) 2003-12-17 2003-12-17 Vehicle travel guidance device

Country Status (1)

Country Link
JP (1) JP3762406B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4956099B2 (en) * 2006-08-31 2012-06-20 富士重工業株式会社 Wall detector
US8466960B2 (en) 2009-02-16 2013-06-18 Ricoh Company, Ltd. Liquid droplet recognition apparatus, raindrop recognition apparatus, and on-vehicle monitoring apparatus
JP5637425B2 (en) * 2009-03-06 2014-12-10 株式会社リコー Droplet detection device and in-vehicle monitoring device
JP5771778B2 (en) * 2010-06-30 2015-09-02 パナソニックIpマネジメント株式会社 Monitoring device, program
JP5768927B2 (en) * 2012-02-14 2015-08-26 日産自動車株式会社 Three-dimensional object detection device
KR102406502B1 (en) * 2016-12-14 2022-06-10 현대자동차주식회사 Apparatus and method for controlling narrow road driving of vehicle
JP6548312B2 (en) * 2017-09-19 2019-07-24 株式会社Subaru Image processing device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59198377A (en) * 1983-04-27 1984-11-10 Nippon Soken Inc Obstacle detector for vehicle
JPS63195045A (en) * 1987-02-09 1988-08-12 Alpine Electron Inc On-board announciator for alarming approach of obstacle
JP2658056B2 (en) * 1987-06-17 1997-09-30 日産自動車株式会社 Autonomous traveling vehicle control device
JPH0690760B2 (en) * 1991-01-23 1994-11-14 株式会社カンセイ Leading vehicle position detector
JPH05265547A (en) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd On-vehicle outside monitoring device
JP2532221Y2 (en) * 1992-03-31 1997-04-09 株式会社小糸製作所 Radar equipment for vehicles
JPH0581775U (en) * 1992-04-06 1993-11-05 日野自動車工業株式会社 Radar equipment
JPH0583900U (en) * 1992-04-06 1993-11-12 日野自動車工業株式会社 Vehicle radar device

Also Published As

Publication number Publication date
JP2004168304A (en) 2004-06-17

Similar Documents

Publication Publication Date Title
JP3522317B2 (en) Travel guide device for vehicles
JP3324821B2 (en) Vehicle exterior monitoring device
US5410346A (en) System for monitoring condition outside vehicle using imaged picture by a plurality of television cameras
CN109791738B (en) Travel assist device and computer program
US6734787B2 (en) Apparatus and method of recognizing vehicle travelling behind
CN104509100B (en) Three-dimensional body detection device and three-dimensional body detection method
JP4893212B2 (en) Perimeter monitoring device
CN104509101A (en) Three-dimensional object detection device, and three-dimensional object detection method
CN104509099B (en) Three-dimensional body detection device and three-dimensional body detection method
CN111595357B (en) Visual interface display method and device, electronic equipment and storage medium
JPH11213138A (en) Out-of-vehicle monitoring device
CN104012081A (en) Object detection device
CN104685866A (en) Three-dimensional object detection device, and three-dimensional object detection method
JPH0845000A (en) Vehicle-to-vehicle distance controller
JP4937844B2 (en) Pedestrian detection device
JPH09106500A (en) Driving supporting device for vehicle
JP2019164611A (en) Traveling support device and computer program
JPH07225892A (en) Vehicle traveling controller
JP3762406B2 (en) Vehicle travel guidance device
JP2004355139A (en) Vehicle recognition system
JP6548312B2 (en) Image processing device
JP2010176592A (en) Driving support device for vehicle
CN115346193A (en) Parking space detection method and tracking method thereof, parking space detection device, parking space detection equipment and computer readable storage medium
JP5392473B2 (en) Vehicle driving support device
JP7431108B2 (en) image recognition device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051004

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060112

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090120

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100120

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110120

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110120

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120120

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120120

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130120

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130120

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140120

Year of fee payment: 8

EXPY Cancellation because of completion of term