JPH06111198A - Parking space detecting device - Google Patents

Parking space detecting device

Info

Publication number
JPH06111198A
JPH06111198A JP4260349A JP26034992A JPH06111198A JP H06111198 A JPH06111198 A JP H06111198A JP 4260349 A JP4260349 A JP 4260349A JP 26034992 A JP26034992 A JP 26034992A JP H06111198 A JPH06111198 A JP H06111198A
Authority
JP
Japan
Prior art keywords
distance data
parking space
distance
origin
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4260349A
Other languages
Japanese (ja)
Inventor
Masahiro Mio
昌宏 美尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP4260349A priority Critical patent/JPH06111198A/en
Publication of JPH06111198A publication Critical patent/JPH06111198A/en
Pending legal-status Critical Current

Links

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PURPOSE:To detect an accurate parking space position from distance data obtained by a CCD area sensor loaded on a vehicle. CONSTITUTION:A range finding ECU 12 calculates a distance up to an object based upon image data obtained by the CCD area sensor 10 and supplies the calculated result to an automobile parking controlling ECU 14 as the distance data of each azimuth. The ECU 14 transforms the distance data to rectangular coordinates setting up the sensor 10 as its origin, calculates a parking space front boundary by applying least square twice and then calculates an intersecting point on which a straight line connecting clinical distance data increasing a distance between the parking space front boundary and the distance data to the origin intersects with the boundary. Then a position most close to the origin out of the intersecting point and distance data adjacent to the interseting point is set up as the position of a parking space inlet.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は駐車空間検出装置、特に
車両に搭載されたCCDエリアセンサにて得られた駐車
空間に関する距離データの処理に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a parking space detecting device, and more particularly to processing of distance data regarding a parking space obtained by a CCD area sensor mounted on a vehicle.

【0002】[0002]

【従来の技術】車両の車庫入れ操作は、ステアリング操
作やアクセルペダルの操作、ブレーキペダルの操作、さ
らにはマニュアルトランスミッション車両においてはク
ラッチ操作が加わり極めて煩雑な操作となる。しかも、
車両後方から車庫入れを行う際には後方目視するために
運転者は不自然な姿勢で上記操作を行わなければなら
ず、熟練を要する操作となっている。一方、このような
操作は車両と車庫との相対位置が決定されれば一義的に
決定される軌跡に基づく機械的操作で置き換えることが
可能である。そこで、このような煩雑な車庫入れ操作を
自動化し、運転者の負担を軽減するための自動駐車装置
が提案されている。
2. Description of the Related Art The operation of putting a vehicle into a garage is extremely complicated due to steering operation, accelerator pedal operation, brake pedal operation, and clutch operation in a manual transmission vehicle. Moreover,
When entering the garage from the rear of the vehicle, the driver has to perform the above operation in an unnatural posture in order to visually check the rear, which is an operation requiring skill. On the other hand, such an operation can be replaced with a mechanical operation based on a trajectory uniquely determined if the relative position between the vehicle and the garage is determined. Therefore, an automatic parking device has been proposed for automating such complicated garage entry operation and reducing the burden on the driver.

【0003】このような自動駐車装置では、いうまでも
なくいかに正確に車両と車庫との相対位置関係を検出す
るかが重要技術であり、このため測距センサの改善や得
られた距離データの処理の改善などが試みられている。
例えば、本願出願人が先に提案した特願平2−3123
39号では、駐車位置の四隅にバーコード付き標識を予
め設置しておき、車両後部に設けられたCCDエリアセ
ンサでこのバーコード付き標識位置を検出することによ
り車両を車庫に誘導する構成が示されている。また、こ
のような特別の標識が設置されていない、あるいは設置
不可能な駐車空間にも対応可能とするために、本願出願
人はさらに特願平3−309475号にてCCDエリア
センサで複数の所定方位に存在する車庫などの物体の位
置を検出し、隣接する物体の位置を始点と終点とするベ
クトルの変化から駐車位置を算出する構成を提案した。
駐車空間ではこのベクトルの向きが急激に変化するた
め、駐車位置を標識に頼ることなく検出することが可能
となる。
In such an automatic parking device, needless to say, how to accurately detect the relative positional relationship between the vehicle and the garage is an important technique. Therefore, the distance measuring sensor is improved and the obtained distance data is obtained. Attempts have been made to improve the processing.
For example, Japanese Patent Application No. 2-3123 previously proposed by the applicant of the present application
No. 39 shows a configuration in which a bar coded sign is installed in advance at the four corners of the parking position, and a CCD area sensor provided at the rear of the vehicle detects the bar coded sign position to guide the vehicle to the garage. Has been done. Further, in order to make it possible to cope with a parking space where such a special sign is not installed or cannot be installed, the applicant of the present application further discloses that a plurality of CCD area sensors are used in Japanese Patent Application No. 3-309475. We proposed a structure that detects the position of an object such as a garage existing in a predetermined direction and calculates the parking position from the change of the vector with the position of the adjacent object as the start point and the end point.
Since the direction of this vector changes rapidly in the parking space, it is possible to detect the parking position without relying on the sign.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、車両後
部に設けられたCCDエリアセンサで得られる物体まで
の距離データは常に正確な値を示すとは限らず、駐車空
間周囲の環境変化、例えば天候や時刻などにより周囲環
境の明暗度が変化した場合にはCCDエリアセンサに結
像する物体のコントラスト量が十分でない場合が生じ、
CCDエリアセンサで検出する距離データにばらつきが
生じてしまう可能性がある。このように距離データ自体
にばらつきが生じてしまうと、例えば上述したベクトル
の変化量に基づき駐車位置を検出する場合には駐車位置
以外のところでもベクトルの変化が生じてしまい、駐車
位置を正確に検出するためには特別な処理が必要となっ
てしまうなど、駐車位置検出が十分でない可能性があ
る。
However, the distance data to the object obtained by the CCD area sensor provided at the rear part of the vehicle does not always show an accurate value, and changes in the environment around the parking space, such as the weather and the like. When the brightness of the surrounding environment changes depending on the time, the contrast amount of the object imaged on the CCD area sensor may not be sufficient.
The distance data detected by the CCD area sensor may vary. If the distance data itself varies in this way, for example, when the parking position is detected based on the amount of change in the vector described above, the vector changes even at a place other than the parking position, and the parking position is accurately determined. There is a possibility that parking position detection is not sufficient, such as requiring special processing for detection.

【0005】そこで、本願出願人は先に特願平4−73
851号にてCCDエリアセンサで得られた距離データ
に対し最小2乗法を複数回(2回)用いることにより、
距離データにばらつきがあっても正確な駐車空間を可能
とする駐車空間検出装置を提案した。
Therefore, the applicant of the present application has previously filed Japanese Patent Application No. 4-73.
By using the least squares method multiple times (twice) on the distance data obtained by the CCD area sensor in No. 851,
We proposed a parking space detection device that enables an accurate parking space even if the distance data varies.

【0006】CCDエリアセンサで得られた距離データ
はおおよそ駐車空間を反映したデータ分布となってお
り、これらの距離データのうち駐車空間の前面境界線を
示しているであろう距離データを抽出すれば駐車空間を
検出することが可能となるが、この前面境界線データは
他のデータに比べて当然のことながらCCDエリアセン
サ側に位置する可能性が高くなる。そこで、この発明で
は1回目の最小2乗法でこの前面境界線を示しているで
あろう距離データと他の距離データとを分離するための
関係式を算出し、さらにこれら前面境界線距離データに
対して2回目の最小2乗法を適用することにより正確な
前面境界線を算出する。そして、前面境界線が算出され
た後は、この前面境界線との各距離データの距離により
駐車空間の入口位置を算出することができ(距離が所定
値以上の場合)、駐車空間を決定することができる。す
なわち、距離が所定値以上となる距離データと原点(自
車両位置)とを結ぶ直線と前記前面境界線との交点が駐
車空間入口位置となる。
The distance data obtained by the CCD area sensor has a data distribution that approximately reflects the parking space, and the distance data that would indicate the front boundary line of the parking space should be extracted from these data. For example, the parking space can be detected, but the front boundary data is naturally more likely to be located on the CCD area sensor side than other data. Therefore, in the present invention, the relational expression for separating the distance data which may indicate the front boundary line from the other distance data by the first least squares method is calculated, and the front boundary line distance data is further calculated. On the other hand, an accurate front boundary line is calculated by applying the second least squares method. Then, after the front boundary line is calculated, the entrance position of the parking space can be calculated from the distance of each distance data with the front boundary line (when the distance is equal to or more than a predetermined value), and the parking space is determined. be able to. That is, the intersection of the straight line connecting the distance data with the distance equal to or greater than the predetermined value and the origin (the vehicle position) and the front boundary line is the parking space entrance position.

【0007】しかしながら、距離データにばらつきがあ
り、2回目の最小2乗法を適用して得られた前面境界線
が的確に駐車空間の前面境界を示していない場合、この
ように距離が所定値以上となる臨界距離データと原点を
結ぶ直線と前面境界線との交点が必ずしも現実の駐車空
間入口位置を示さない場合がある。
However, when the distance data varies and the front boundary line obtained by applying the second least squares method does not accurately indicate the front boundary of the parking space, the distance is equal to or larger than the predetermined value. In some cases, the intersection of the straight line connecting the critical distance data and the origin and the front boundary line does not necessarily indicate the actual parking space entrance position.

【0008】例えば、現実の駐車空間入口の車両側に障
害物がある場合、この障害物を避けて車両を駐車空間に
導くためにはこの障害物を駐車空間入口位置に設定する
必要があるが、距離が所定値以上となる臨界距離データ
と原点を結ぶ直線と前面境界線との交点を駐車空間入口
位置と一義的に決定してしまう構成では不可能である。
For example, when there is an obstacle on the vehicle side of the actual parking space entrance, it is necessary to set this obstacle at the parking space entrance position in order to avoid the obstacle and guide the vehicle to the parking space. However, it is not possible in a configuration in which the intersection of the front boundary line and the straight line connecting the origin and the critical distance data for which the distance is a predetermined value or more is uniquely determined as the parking space entrance position.

【0009】本発明は上記従来技術の有する課題に鑑み
なされてものであり、その目的はCCDエリアセンサで
得られた距離データにばらつきが生じてしまう可能性が
ある場合においても、これらの距離データから正確な駐
車位置を検出することが可能で、自動駐車システムの信
頼性を著しく向上させることが可能な駐車空間検出装置
を提供することにある。
The present invention has been made in view of the above problems of the prior art, and the object thereof is to obtain the distance data even if there is a possibility that the distance data obtained by the CCD area sensor may vary. An object of the present invention is to provide a parking space detection device capable of accurately detecting the parking position from the vehicle and significantly improving the reliability of the automatic parking system.

【0010】[0010]

【課題を解決するための手段】上記目的を達成するため
に、本発明に係る駐車空間検出装置は、車両に搭載さ
れ、車両周囲の駐車空間を含む所定領域を撮影して方位
毎の画像データを得るCCDエリアセンサと、得られた
画像データから方位θ毎の物体までの距離Rを算出する
距離データ算出手段と、得られた方位θ毎の距離データ
(R,θ)を前記CCDエリアセンサを原点とするX−
Y直交座標(X,Y)に変換する変換手段と、変換され
た距離データ(X,Y)に対して最小2乗法を用いるこ
とにより距離データ間の関係式X=f1 (Y)を算出す
る第1演算手段と、前記関係式X=f1 (Y)に対し前
記CCDエリアセンサ側に存在する距離データ(X,
Y)に対して最小2乗法を用いることにより前記駐車空
間の前面境界線X=f2 を算出する第2演算手段と、前
記前面境界線X=f2 (Y)と距離データ(X,Y)と
の距離が急増する臨界距離データと原点を結ぶ直線X=
f3 (Y)と前記前面境界線X=f2 (Y)との交点を
算出する第3演算手段と、算出された前記交点及びこの
交点に隣接する距離データ(X,Y)のうち、最も原点
に近い距離成分を有するものを駐車空間入口位置として
検出する第4演算手段と、を有することを特徴とする。
In order to achieve the above object, a parking space detecting apparatus according to the present invention is mounted on a vehicle, photographs a predetermined area including a parking space around the vehicle, and image data for each direction. A CCD area sensor, distance data calculating means for calculating the distance R from the obtained image data to the object in each azimuth θ, and the obtained distance data (R, θ) in each azimuth θ. With X as the origin
The relational expression X = f1 (Y) between the distance data is calculated by using the conversion means for converting into the Y orthogonal coordinates (X, Y) and the least square method for the converted distance data (X, Y). Distance data (X, X, present on the CCD area sensor side for the relational expression X = f1 (Y)
Second calculation means for calculating the front boundary line X = f2 of the parking space by using the least squares method for Y), and the front boundary line X = f2 (Y) and the distance data (X, Y). A straight line connecting the origin with the critical distance data where the distance of
The third origin for calculating the intersection between f3 (Y) and the front boundary line X = f2 (Y), and the calculated origin, and the distance data (X, Y) adjacent to this intersection, the most origin And a fourth calculation means for detecting a position having a distance component close to as the parking space entrance position.

【0011】[0011]

【作用】本発明の駐車空間検出装置はこのような構成を
有しており、CCDエリアセンサで得られた距離データ
に対し最小2乗法を複数回(2回)用いることにより、
距離データにばらつきがあっても正確な駐車空間検出を
可能とするものである。すなわち、CCDエリアセンサ
で得られた距離データはおおよそ駐車空間を反映したデ
ータ分布となっており、これらの距離データのうち駐車
空間の前面境界線を示しているであろう距離データを抽
出すれば駐車空間を検出することが可能となるが、この
前面境界線データは他のデータに比べて当然のことなが
らCCDエリアセンサ側に位置する可能性が高くなる。
そこで、1回目の最小2乗法でこの前面境界線を示して
いるであろう距離データと他の距離データとを分離する
ための関係式X=f1 (Y)を算出し、さらにこれら前
面境界線距離データに対して2回目の最小2乗法を適用
することにより正確な前面境界線を算出する。
The parking space detecting device of the present invention has such a structure, and by using the least squares method a plurality of times (twice) for the distance data obtained by the CCD area sensor,
Even if the distance data varies, it is possible to accurately detect the parking space. That is, the distance data obtained by the CCD area sensor has a data distribution that approximately reflects the parking space, and if the distance data that may indicate the front boundary line of the parking space is extracted from these distance data, Although it becomes possible to detect the parking space, the front boundary data is naturally more likely to be located on the CCD area sensor side than other data.
Therefore, the relational expression X = f 1 (Y) for separating the distance data that may indicate this front boundary line from other distance data by the first least squares method is calculated, and these front boundary lines are further calculated. An accurate front boundary line is calculated by applying the second least squares method to the line distance data.

【0012】そして、前面境界線が算出された後は、前
面境界線X=f2 (Y)と距離データ(X,Y)との距
離が急増する臨界距離データと原点を結ぶ直線X=f3
(Y)と前記前面境界線X=f2 (Y)との交点を算出
するが、駐車空間の状況によってはこの交点が必ずしも
現実の駐車空間入口位置として最適であるとは限らな
い。
After the front boundary line is calculated, a straight line X = f3 connecting the origin and the critical distance data at which the distance between the front boundary line X = f2 (Y) and the distance data (X, Y) rapidly increases.
The intersection between (Y) and the front boundary line X = f2 (Y) is calculated, but this intersection may not always be the optimum actual parking space entrance position depending on the situation of the parking space.

【0013】そこで、本発明ではさらに算出された前記
交点及びこの交点に隣接する距離データ(X,Y)のう
ち、最も原点に近い距離成分を有するものを駐車空間入
口位置として検出することにより、駐車空間を決定する
ものである。
Therefore, in the present invention, of the calculated intersections and the distance data (X, Y) adjacent to the intersections, the one having the distance component closest to the origin is detected as the parking space entrance position, It determines the parking space.

【0014】[0014]

【実施例】以下、図面を用いながら本発明に係る駐車空
間検出装置の好適な実施例を説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A preferred embodiment of a parking space detecting device according to the present invention will be described below with reference to the drawings.

【0015】図1には本実施例の駐車空間検出装置が用
いられた自動駐車システムの構成が示されている。車両
後部にはCCDエリアセンサ10が設けられており、図
示しない駐車空間を含む所定領域を撮影する。このCC
Dエリアセンサは、図2に示されるように一対のCCD
カメラ10a,10bを鉛直軸回りに回動可能に所定距
離離間させて配置することにより構成される。そして、
CCDエリアセンサ10にて得られた画像データ、すな
わちCCDカメラ10aとCCDカメラ10bによる画
像データは測距用コンピュータである測距用ECU12
に供給され、両画像データの比較(位相差)から駐車空
間などの物体までの距離データが方位毎に算出される。
算出された距離データ、すなわち距離Rと方位θのデー
タ(R,θ)は自動駐車制御用コンピュータである自動
駐車制御用ECU14に供給される。図3にはこのよう
にして得られた距離データ(R,θ)の一例が示されて
おり、図中黒丸が距離データを示している。
FIG. 1 shows the configuration of an automatic parking system using the parking space detecting device of this embodiment. A CCD area sensor 10 is provided at the rear of the vehicle, and photographs a predetermined area including a parking space (not shown). This CC
The D area sensor is a pair of CCDs as shown in FIG.
It is configured by arranging the cameras 10a and 10b so as to be rotatable about a vertical axis and separated from each other by a predetermined distance. And
The image data obtained by the CCD area sensor 10, that is, the image data obtained by the CCD camera 10a and the CCD camera 10b is the ECU 12 for distance measurement which is a computer for distance measurement.
And the distance data to the object such as the parking space is calculated for each azimuth from the comparison (phase difference) of both image data.
The calculated distance data, that is, the data (R, θ) of the distance R and the azimuth θ is supplied to the automatic parking control ECU 14, which is an automatic parking control computer. FIG. 3 shows an example of the distance data (R, θ) obtained in this way, and the black circles in the figure represent the distance data.

【0016】自動駐車制御用ECU14は測距用ECU
12からの距離データ(R,θ)に対し後述する処理を
行って駐車空間を検出すると共に、操舵角センサ16や
車速センサ18並びにシフトポジションセンサ20から
出力される検出信号に基づき車両を駐車空間に誘導する
ための操舵信号を操舵アクチュエータ26に供給すると
共にブレーキアクチュエータ28に制動信号を出力して
車両を駐車空間に停止させる構成である。
The ECU 14 for automatic parking control is an ECU for distance measurement.
The distance data (R, θ) from 12 is subjected to the processing described later to detect the parking space, and the vehicle is parked in the parking space based on the detection signals output from the steering angle sensor 16, the vehicle speed sensor 18, and the shift position sensor 20. The steering signal for guiding to the steering actuator 26 is supplied to the steering actuator 26 and the braking signal is output to the brake actuator 28 to stop the vehicle in the parking space.

【0017】以下、図4乃至図6を用いて自動駐車制御
用ECU14にて行われる駐車空間検出処理を詳細に説
明する。まず、図4に示されるようにCCDエリアセン
サ10にて得られた画像データに基づき測距用ECU1
2が算出した距離データ(R,θ)を順次読み込む(S
101)。そして、得られた距離データに対し、距離が
所定位置、例えば本実施例においては20m以上か否か
を判定し、20m以下の場合にはそれらの距離データの
最大値を抽出する(S102〜S105)。20m以下
の距離データの最大値が算出された後、再び全距離デー
タに対し、20m以上か否かを判定し、20mより大き
いデータに対し、前述のステップで算出された最大値
(20m以下)でこの20mより大きい距離データを置
き替える(S106〜S109)。
The parking space detection process performed by the automatic parking control ECU 14 will be described in detail below with reference to FIGS. 4 to 6. First, as shown in FIG. 4, the ECU 1 for distance measurement is based on the image data obtained by the CCD area sensor 10.
2 sequentially reads the distance data (R, θ) calculated (S)
101). Then, with respect to the obtained distance data, it is determined whether or not the distance is a predetermined position, for example, 20 m or more in the present embodiment, and if it is 20 m or less, the maximum value of those distance data is extracted (S102 to S105). ). After the maximum value of the distance data of 20 m or less is calculated, it is again determined whether or not it is 20 m or more for all the distance data, and the maximum value (20 m or less) calculated in the above step for the data of 20 m or more. Then, the distance data larger than 20 m is replaced (S106 to S109).

【0018】この一連のステップは以下のような処理を
意味している。すなわち、実際に車両を車庫などの駐車
空間に誘導する場合、駐車空間から所定距離、例えば2
0m以内に運転者が車両を停止させ、その位置から自動
駐車システムを作動させて車両を駐車空間に自動駐車さ
せる場合がほとんどである。従って、CCDエリアセン
サ10にて得られた距離データが20m以上の値を示し
ている場合には正確な値を示していないノイズと考えら
れる。そこで、このような距離データに対しては、20
m以下の最大値のデータに置き替えることにより距離デ
ータの丸め処理を行う。
This series of steps means the following processing. That is, when actually guiding the vehicle to a parking space such as a garage, a predetermined distance from the parking space, for example, 2
In most cases, the driver stops the vehicle within 0 m and operates the automatic parking system from that position to automatically park the vehicle in the parking space. Therefore, when the distance data obtained by the CCD area sensor 10 shows a value of 20 m or more, it is considered that the noise does not show an accurate value. Therefore, for such distance data, 20
The rounding processing of the distance data is performed by replacing the data with the maximum value of m or less.

【0019】このようにして距離データの前処理が行わ
れた後、これらの距離データに対し1回目の最小2乗法
を適用する。すなわち、図5に示されるように、まず距
離データ(R,θ)をCCDエリアセンサ10を原点と
するx−y直交座標系に変換する(S201〜S20
3)。この変換は周知の如く、 x=Rcosθ y=Rsinθ により行われる。x−y直交座標系に距離データを変換
した後、これら距離データ(x,y)に対し、最小2乗
法を適用してこれら距離データ間の関係式X=f
1 (Y)を算出する(S204)。ここで、周知の如く
最小2乗法とは得られた複数のデータ(xi ,yi )に
対し、真値式y=Ax+Bを算出する方法であり、 E=Σ{yi −(Axi +B)}2 が最小となるA、Bを求めることにより得られる。すな
わち、 dE=0(dEは全微分) を満たすa,bを決定すれば良い。ここで、本実施例に
おいて注意すべき事項がある。前述したように、CCD
エリアセンサ10にて得られた距離データはCCDエリ
アセンサ10の位置を原点とするx−y直交座標系に変
換されており、これらの距離データの例が図15(A)
〜(C)に示されている。図15(A)〜(C)に示さ
れた距離データはCCDエリアセンサの露光量を手動操
作により調整した場合の距離データの例(以下、M1 ,
M2 ,M3 とする)であり、それぞれ車両と駐車空間と
の相対位置が異なる場合の例が示されている。図におい
て横軸はx軸、縦軸はy軸であり、共に原点からの距離
(m)を表している。また図中黒丸が直交座標系に変換
された距離データを示している。これらの距離データに
対し、前述したように通常の最小2乗法を適用し、真値
式y=Ax+Bを求めた場合の直線が図中実線で示され
ている。これらの実線は確かに最小2乗法により算出さ
れた真値を示す直線であるが、本実施例における最小2
乗法適用の目的は駐車空間を検出することであり、より
具体的には駐車空間の前面境界線を示すであろう距離デ
ータ群を分離抽出することにある。この前面境界線を示
すであろう距離データはCCDエリアセンサ10からほ
ぼ同じような近い距離にある距離データ群であると考え
られ、一方、より遠い距離にある距離データ群は駐車空
間の後面境界線を示すデータであると考えられる。そこ
で、前面境界線を示すであろう距離データ群を抽出する
ためには、この前面境界線距離データ群と後面境界線距
離データ群とを分離するに足る直線を決定しなければな
らず、この目的のためには図15に示される通常の最小
2乗法による真値直線ではこの目的を達成することは不
可能である。そこで、本願出願人は通常の最小2乗法を
改良し、前面境界線距離データ群を抽出すべく、最小2
乗法における真値式y=ax+bにおいてxとyを入れ
替え、x=Ay+Bとして最小2乗法を適用した。
After the distance data is preprocessed in this way, the first least squares method is applied to these distance data. That is, as shown in FIG. 5, first, the distance data (R, θ) is converted into an xy orthogonal coordinate system having the CCD area sensor 10 as the origin (S201 to S20).
3). As is well known, this conversion is performed by x = Rcos θ y = R sin θ. After converting the distance data to the xy Cartesian coordinate system, the least squares method is applied to the distance data (x, y) to obtain a relational expression X = f between the distance data.
1 (Y) is calculated (S204). Here, as is well known, the least squares method is a method of calculating a true value expression y = Ax + B for a plurality of obtained data (x i , y i ), and E = Σ {y i − (Ax i + B)} 2 is obtained by finding A and B that minimize. That is, it is sufficient to determine a and b that satisfy dE = 0 (dE is total differential). Here, there are matters to be noted in the present embodiment. As mentioned above, CCD
The distance data obtained by the area sensor 10 is converted into an xy Cartesian coordinate system whose origin is the position of the CCD area sensor 10. An example of these distance data is shown in FIG.
~ (C). The distance data shown in FIGS. 15A to 15C is an example of the distance data when the exposure amount of the CCD area sensor is manually adjusted (hereinafter, M1,
M2, M3), and the relative positions of the vehicle and the parking space are different from each other. In the figure, the horizontal axis is the x axis and the vertical axis is the y axis, both of which represent the distance (m) from the origin. Also, the black circles in the figure indicate the distance data converted into the Cartesian coordinate system. A straight line in the case where the true value formula y = Ax + B is obtained by applying the normal least squares method to these distance data as described above is shown by a solid line in the figure. These solid lines are certainly straight lines showing the true value calculated by the least square method, but the minimum 2 in the present embodiment is
The purpose of applying the multiplication method is to detect the parking space, and more specifically, to separate and extract the distance data group that will indicate the front boundary line of the parking space. The distance data that may indicate this front boundary line is considered to be a distance data group at a similar distance from the CCD area sensor 10, while a distance data group at a longer distance is a rear surface boundary of the parking space. It is considered to be data showing a line. Therefore, in order to extract the distance data group that will indicate the front boundary line, a straight line sufficient to separate the front boundary line distance data group and the rear boundary line distance data group must be determined. For the purpose, it is impossible to achieve this purpose with the true value straight line by the usual least squares method shown in FIG. Therefore, the applicant of the present application has improved the ordinary least squares method to extract the front boundary line distance data group with a minimum of 2
In the true value formula y = ax + b in the multiplication method, x and y were exchanged, and the least squares method was applied with x = Ay + B.

【0020】図16(A)〜(C)にはこのようにして
改良された最小2乗法を用いて算出された真値式が実線
で示されており、図16(A)〜(C)いずれにおいて
も、前面境界線を示すであろう距離データ群と他の距離
データ群とがこの直線を境にして明白に分離することが
可能となっている。
16 (A) to 16 (C), the true value formula calculated using the least squares method thus improved is shown by a solid line, and FIGS. 16 (A) to 16 (C). In any case, it is possible to clearly separate the distance data group that will indicate the front boundary line and the other distance data group with this straight line as a boundary.

【0021】1回目の最小2乗法の適用が終了した後、
次に具体的な前面境界線を決定すべく、2回目の最小2
乗法適用処理に移行する。すなわち、図6に示されるよ
うに距離データのx座標xi と1回目の最小2乗法によ
り算出された関係式Ayi +bとの大小比較が行われ、
i がAyi +Bより小さい点、すなわち関係式に対し
CCDエリアセンサ側に位置する距離データ群に対し2
回目の最小2乗法が適用される。この2回目の最小2乗
法も前述した1回目の最小2乗法と同様の処理で行わ
れ、距離データ(xi ,yi )に対してx=Ay+Bと
なるA,Bを最小2乗法により算出する(S301〜S
303)。図17(A)〜(C)にはこのようにして2
回目の最小2乗法が算出された場合の真値式が実線で示
されている。なお、同図(A)〜(C)はそれぞれ図1
5乃至図16の(A)〜(C)に示された距離データに
それぞれ対応している。図17から明らかなように、2
回目の最小2乗法により得られた直線は駐車空間の前面
境界線を極めて明瞭に確定していることが分る。なお、
図17には参考のため1回目の最小2乗法により得られ
た真値式に対しCCDエリアセンサ10より遠い位置に
ある距離データ群、すなわち駐車空間の後面境界線を示
すであろう距離データ群に対し3回目の最小2乗法を適
用して得られる直線を破線で示している。この破線は駐
車空間の後面境界線を決定する直線となり、従って駐車
空間決定に用いることも可能てあるが、駐車空間によっ
ては必ずしもその後面が存在するとは限らないので、本
実施例においては用いていない。勿論、この距離データ
群の数をカウントし、十分な距離データ数が得られた場
合にはこの後面境界線を決定するために3回目の最小2
乗法としてこの真値直線を決定し、駐車空間決定の処理
として用いることも可能である。
After the first application of the least squares method is completed,
Next, in order to determine the concrete front boundary line, the second minimum 2
Move to the multiplication application processing. That is, as shown in FIG. 6, the magnitude comparison between the x coordinate x i of the distance data and the relational expression Ay i + b calculated by the first least-squares method is performed,
x i is smaller than Ay i + B, that is, 2 for the distance data group located on the CCD area sensor side with respect to the relational expression.
The second least squares method is applied. This second least-squares method is also performed by the same process as the above-mentioned first least-squares method, and A and B such that x = Ay + B for distance data (x i , y i ) are calculated by the least-squares method. Do (S301-S
303). In FIG. 17 (A) to (C), 2
The true value expression when the second least squares method is calculated is shown by a solid line. 1A to 1C are respectively shown in FIG.
5 to 16 correspond to the distance data shown in (A) to (C) of FIG. 16, respectively. As is clear from FIG. 17, 2
It can be seen that the straight line obtained by the least squares method of the second time defines the front boundary line of the parking space very clearly. In addition,
For reference, FIG. 17 shows a distance data group at a position farther than the CCD area sensor 10 with respect to the true value formula obtained by the first least-squares method, that is, a distance data group that will show the rear boundary line of the parking space. On the other hand, a straight line obtained by applying the third least-squares method is shown by a broken line. This broken line is a straight line that determines the boundary line of the rear surface of the parking space, and therefore it can be used for determining the parking space, but the rear surface does not always exist in some parking spaces, so it is used in this embodiment. Absent. Of course, the number of this distance data group is counted, and when a sufficient number of distance data is obtained, the second minimum of 2 is used to determine this rear surface boundary line.
It is also possible to determine this true value straight line as a multiplication method and use it as the processing for determining the parking space.

【0022】駐車空間の前面境界線が算出された後、次
に駐車入口位置の検出処理に移行する。この駐車入口検
出は、前面境界線と各距離データ(xi ,yi )との距
離に基づき算出され、具体的なフローチャートが図7乃
至図14に示されている。
After the front boundary line of the parking space is calculated, the process moves to the parking entrance position detection process. This parking entrance detection is calculated based on the distance between the front boundary line and each distance data (x i , y i ), and specific flowcharts are shown in FIGS. 7 to 14.

【0023】まず、図7に示されるように前面境界線x
=Ay+Bと各距離データとの距離DX(i)を算出す
る(S402)。ここで、前面境界線と各距離デーとの
距離Lは、幾何学的考察から容易に L=Δx・Δy/{(Δx2 +Δy2 0.5 } 但し、Δx=|xi −Ayi −B| Δy=|yi −(xi +B)/A| となるが、本願出願人は実際にこの距離を算出したとこ
ろ、Δxとの間に大きな相違がないことを見いだしてい
る。図18にM1の距離データに対して算出された上記
Δx、Δy及びLの変化の様子を示す。Δyは変化が激
しく、Δx及びLはほとんど同様の変化を示すことがわ
かる。そこで、本実施例では前述したように、算出が容
易なΔxを用いて駐車入口を検出することとしている。
なお、図19にはM1 ,M2 ,M3 の距離データに対す
るΔxの変化及び実際の駐車空間入口位置が示されてお
り、Δxの値から駐車空間位置を検出することの正当性
が示唆される。
First, as shown in FIG. 7, the front boundary line x
= Ay + B and the distance DX (i) between each distance data are calculated (S402). Here, the distance L between the front boundary line and each distance day is easily L = Δx · Δy / {(Δx 2 + Δy 2 ) 0.5 } where Δx = | x i −Ay i −B Although | Δy = | y i − (x i + B) / A |, the applicant of the present application actually calculated this distance and found that there was no great difference from Δx. FIG. 18 shows changes in Δx, Δy, and L calculated for the distance data of M1. It can be seen that Δy changes drastically, and Δx and L show almost the same changes. Therefore, in the present embodiment, as described above, the parking entrance is detected using Δx, which is easy to calculate.
It should be noted that FIG. 19 shows the change of Δx and the actual parking space entrance position with respect to the distance data of M1, M2, and M3, which suggests the validity of detecting the parking space position from the value of Δx.

【0024】しかし、単に所定のしきい値を用いて二値
化、すなわち駐車空間入口位置座標と他の座標とを区別
する方法では距離データのばらつきに対応できない。そ
こで、本実施例では本願出願人が先に提案した特願平3
−64970号に開示されている2値化、エッジ検出処
理を利用して駐車入口位置を検出する(S404)。す
なわち、次のように各変数に初期値をセットする。(S
405)。第1継続カウント許可フラグcok1=0,
第2継続カウント許可フラグcok2=0,第1継続カ
ウンタfc1=0,第2継続カウンタfc2=0,左エ
ッジ候補座標wn01=0,右エッジ候補座標wn02
=0,第1検出フラグfw1=0,右エッジカウンタw
c1=0,第2検出フラグfw2=1,左エッジカウン
タwc2=0。
However, the binarization, that is, the method of distinguishing the parking space entrance position coordinates from other coordinates, cannot simply cope with the variation in the distance data by using a predetermined threshold value. Therefore, in this embodiment, Japanese Patent Application No.
The parking entrance position is detected using the binarization and edge detection processing disclosed in No. -64970 (S404). That is, the initial value is set to each variable as follows. (S
405). The first continuation count permission flag cok1 = 0,
Second continuation count permission flag cok2 = 0, first continuation counter fc1 = 0, second continuation counter fc2 = 0, left edge candidate coordinate wn01 = 0, right edge candidate coordinate wn02
= 0, first detection flag fw1 = 0, right edge counter w
c1 = 0, second detection flag fw2 = 1, left edge counter wc2 = 0.

【0025】そして、距離DX(i)と所定のしきい値
thl(本実施例では0.6m)を比較する(S40
7)。DX(i)≦thlの場合にはその距離データは
前面境界線を示すデータであるため、fc1=0,wn
01=0,fw2=1にセットする(S408)。
Then, the distance DX (i) is compared with a predetermined threshold value thl (0.6 m in this embodiment) (S40).
7). When DX (i) ≦ thl, the distance data is data indicating the front boundary line, so fc1 = 0, wn
01 = 0 and fw2 = 1 are set (S408).

【0026】また、cok1が0であるかを判定する
(S409)。cok1は、後述するようにDX(i)
≦thl→DX(i)>thlに変化した場合に1とな
るフラグである。このため、DX(i)≦thlにco
k1が0でないということは、何らかの異常が発生した
と考えられ、この時に右エッジを検出すべきではない。
そこで、S410においてcok1が0でなかった場合
にはcok1=0,fw1=0とする。
Further, it is determined whether cok1 is 0 (S409). cok1 is a DX (i) as will be described later.
This flag is set to 1 when ≦ thl → DX (i)> thl. Therefore, if DX (i) ≦ thl
If k1 is not 0, it is considered that some abnormality has occurred, and the right edge should not be detected at this time.
Therefore, if cok1 is not 0 in S410, cok1 = 0 and fw1 = 0 are set.

【0027】一方、cok1=0であった場合には、前
回の検出結果が上述のような異常な状態でなかったた
め、次のようにして右エッジを検出する。まず、fw1
=1か否かを判定する(S411)。fw1は初期設定
としては0にセットされており、DX(i)>thlの
場合に1にセットされるものである。従って、S407
においてデータがDX(i)≦thlであり、S411
においてfw1が1であるということは、右エッジを検
出したことを意味している。そこで、S411において
fw1=1であれば、fw1=0とするとともに,右エ
ッジの検出位置を示す変数wn02=i(距離データ番
号),cok2=1とする(S412)。
On the other hand, when cok1 = 0, the previous detection result is not the abnormal state as described above, so the right edge is detected as follows. First, fw1
It is determined whether or not = 1 (S411). The fw1 is initially set to 0, and is set to 1 when DX (i)> thl. Therefore, S407
The data is DX (i) ≦ thl, S411
The fact that fw1 is 1 means that the right edge has been detected. Therefore, if fw1 = 1 in S411, fw1 = 0 is set, and variables wn02 = i (distance data number) and cok2 = 1 indicating the detection position of the right edge are set (S412).

【0028】ここで、エッジを検出した場合にそのi値
をそのままエッジ位置として記憶してもよいが、この例
においては、右エッジを検出した後、次のデータもエッ
ジでない場合にのみその位置を右エッジと判定し、誤判
定の発生を抑制する。このために、cok2=1として
いる。
Here, when an edge is detected, its i value may be stored as the edge position as it is, but in this example, after the right edge is detected, the position of the next data is also detected only when it is not an edge. Is determined as the right edge, and the occurrence of erroneous determination is suppressed. For this reason, cok2 = 1.

【0029】次に、cok2が1か否かを判定する(S
413)。cok2が1であった場合には、fc2に1
を加算し(S414)、cok2が1でなかった場合に
は、この加算は行わず、次にfc2が2であるか否かを
判定する(図8のS415)。このfc2はS414を
2回続けて通った場合、すなわちしきい値thl以下の
データが2つ続いた場合に2となっている。そこで、f
c2が2である場合には、右エッジカウンタwc2で特
定される右エッジ座標を示す配列変数wn2[wc2]
に上述のS412でセットされた右エッジ候補座標wn
02の値を記憶する。また、変数cok2,fc2を0
にリセットすると共に、右エッジカウンタwc2に1を
加算する(S416)。従って、次回の右エッジ検出の
場合には、wc2が1多い数となっている。このため、
配列変数wn2に次の右エッジの位置が記憶できること
となる。S415においてfc2<2の場合及びS41
6の処理を終了した場合には、右エッジについての処理
が終了したため、S406に戻る。
Next, it is determined whether cok2 is 1 (S).
413). If cok2 is 1, fc2 is 1
Is added (S414), and if cok2 is not 1, this addition is not performed, and it is then determined whether fc2 is 2 (S415 in FIG. 8). This fc2 is 2 when S414 is passed twice in succession, that is, when two pieces of data equal to or less than the threshold value thl are continued. Therefore, f
When c2 is 2, an array variable wn2 [wc2] indicating the right edge coordinate specified by the right edge counter wc2.
To the right edge candidate coordinates wn set in S412 described above.
The value of 02 is stored. In addition, the variables cok2 and fc2 are set to 0.
Is reset to 1, and 1 is added to the right edge counter wc2 (S416). Therefore, in the next right edge detection, wc2 is increased by one. For this reason,
The position of the next right edge can be stored in the array variable wn2. If fc2 <2 in S415 and S41
When the process of 6 is completed, the process for the right edge is completed, and the process returns to S406.

【0030】一方、S206においてDX(i)>th
lと判定され、駐車空間を検出した場合には、次のよう
にして左エッジの検出を行う。
On the other hand, DX (i)> th in S206
When it is determined to be l and the parking space is detected, the left edge is detected as follows.

【0031】まず、fc2,wn02を0にリセット
し、フラグfw1を1にセットする(S417)。ま
た、cok2が0であるかを判定する(S418)。c
ok2は、前述したようにDX(i)>thl→DX
(i)≦thlに変化した場合に1となる(S41
2)。このため、S407においてDX(i)>thl
となった際にcok2が0でないということは、何らか
の異常が発生したことを意味している。そこで、S41
9において、cok2が0でなかった場合にはcok2
=0,fw2=0とする。
First, fc2 and wn02 are reset to 0, and the flag fw1 is set to 1 (S417). Further, it is determined whether cok2 is 0 (S418). c
ok2 is DX (i)> thl → DX as described above.
(I) becomes 1 when ≦ thl is changed (S41
2). Therefore, DX (i)> thl in S407.
The fact that cok2 is not 0 when means that some kind of abnormality has occurred. Therefore, S41
In 9, when cok2 is not 0, cok2
= 0 and fw2 = 0.

【0032】一方、cok2=0であった場合には、前
回の検出結果が上述のような異常な状態でなかったた
め、次のようにして左エッジを検出する。まず、fw2
=1か否かを判定する(S420)。fw2=1の場合
には左エッジを認識したことを意味し、fw2を0にリ
セットし、左エッジ候補座標wn01にiの値を入力
し、cok1を1にセットする(S421)。そして、
cok1が1であるかを判定し(S422)、cok1
が1であれば、左エッジを検出したため、fc1に1を
加算する(S423)。次に、fc1が2であるか否か
を判定し(S424)、2であれば、候補座標wn01
の値をwc1で特定される配列変数wn1[wc1]に
入力する。これによって、検出された左エッジの位置が
記憶される。また、この入力がなされたため、フラグc
ok1=1,fc1=0にリセットすると共に、左エッ
ジの数を示す変数wc1に1を加算する(S425)。
On the other hand, when cok2 = 0, the previous detection result is not the abnormal state as described above, so the left edge is detected as follows. First, fw2
It is determined whether or not = 1 (S420). When fw2 = 1, it means that the left edge is recognized, fw2 is reset to 0, the value of i is input to the left edge candidate coordinate wn01, and cok1 is set to 1 (S421). And
It is determined whether cok1 is 1 (S422), and cok1
If is 1, the left edge is detected, so 1 is added to fc1 (S423). Next, it is determined whether fc1 is 2 (S424), and if it is 2, candidate coordinates wn01.
Is input to the array variable wn1 [wc1] specified by wc1. As a result, the position of the detected left edge is stored. Since this input is made, the flag c
While resetting to ok1 = 1 and fc1 = 0, 1 is added to the variable wc1 indicating the number of left edges (S425).

【0033】このような動作を全距離データ数iについ
て繰り返し、右エッジ及び左エッジの位置を検出した数
だけ記憶することができる。また、その検出した数は、
wc1,wc2に記憶されることになる。そして、次
に、これら検出エッジの補正処理が行われる(S42
7)。
Such an operation can be repeated for the entire distance data number i, and the right edge position and the left edge position can be stored by the detected number. Also, the detected number is
It will be stored in wc1 and wc2. Then, next, correction processing of these detected edges is performed (S42).
7).

【0034】すなわち、図9に示されるように、まずw
c1とwc2を比較する(S428)。wc1<wc2
の場合には、左エッジの数が右エッジの数より小さいこ
とを意味しており、CCDエリアセンサ10の画像の左
端に駐車空間入口がかかっていることを意味している。
このため、この左端に左エッジを挿入することで、画面
の左端にかかった入口を認識することができる。
That is, as shown in FIG. 9, first, w
c1 and wc2 are compared (S428). wc1 <wc2
In this case, the number of left edges is smaller than the number of right edges, which means that the parking space entrance is on the left end of the image of the CCD area sensor 10.
Therefore, by inserting the left edge at the left end, the entrance at the left end of the screen can be recognized.

【0035】このため、S429〜430にてwn1
[i]の値をwn1[i+1]の値に変換する。即ち、
wn1の値としてn個の値があり、これがwn1[1]
〜wn1[n]の値として記憶されていた場合、この処
理によりwn1[2]〜wn1[n+1]の値に変換さ
れる。そして、wn1[1]に0の値を代入するととも
にwc1に1を加算する(S432)。これによって、
配列変数wn1の値として1つ強制的に挿入され、左エ
ッジが検出できなかった場合にも、これが挿入される。
Therefore, wn1 is obtained in S429 to 430.
The value of [i] is converted into the value of wn1 [i + 1]. That is,
There are n values as the value of wn1, which is wn1 [1].
If stored as the value of wn1 [n], it is converted into the value of wn1 [2] to wn1 [n + 1] by this processing. Then, a value of 0 is assigned to wn1 [1] and 1 is added to wc1 (S432). by this,
One is forcibly inserted as the value of the array variable wn1, and this is also inserted when the left edge cannot be detected.

【0036】一方、S428においてwc1≧wc2で
あった場合には、右エッジが欠けているか、両者が同数
であることを意味している。そこで、次にwc2とwc
1を比較する(S433)。ここで、wc2=wc1で
あった場合には両者が等しいことを意味しており、補正
処理は不要である。
On the other hand, if wc1 ≧ wc2 in S428, it means that the right edge is missing or both are the same number. So, next wc2 and wc
1 are compared (S433). Here, when wc2 = wc1, it means that both are equal, and the correction process is unnecessary.

【0037】一方、wc2の方がwc1より小さかった
場合には、右エッジ挿入の補正を行わねばならない。そ
こで、wc2に1を加算し、このwc2によって特定さ
れる配列変数wn2[wc2]にデータ個数を強制挿入
する(S434)。これによって右エッジとして、視野
の右端の値が挿入されることとなる。
On the other hand, when wc2 is smaller than wc1, correction of right edge insertion must be performed. Therefore, 1 is added to wc2, and the number of data is forcibly inserted in the array variable wn2 [wc2] specified by this wc2 (S434). As a result, the value at the right end of the visual field is inserted as the right edge.

【0038】そして、これらの補正処理後再びwc1と
wc2を比較し、両値が等しくない場合にはエッジ数の
対応が補正によってもとれないことを意味し、駐車区間
検出に失敗したとして再スタートする(S436)。図
20にはこのようにして算出されたM1〜M3の左右エ
ッジ座標が黒丸で示されている。
Then, after these correction processes, wc1 and wc2 are compared again, and if the two values are not equal, it means that the correspondence of the number of edges cannot be obtained by the correction, and it is determined that the parking section detection has failed and restarted. Yes (S436). In FIG. 20, the left and right edge coordinates of M1 to M3 calculated in this way are indicated by black circles.

【0039】以上のようにしてエッジ補正が終了した
後、最終的な駐車空間入口位置を検出する処理に移行す
る。これまでの処理で検出された座標は、左右のエッジ
座標、すなわち駐車入口の最も近い距離データの座標で
ある。そこで、これら抽出された距離データから真の駐
車空間入口座標を算出するための処理が必要であり、こ
の処理を示したのが図10,図11のフローチャートで
ある。図10及び図11はそれぞれ左右エッジ座標から
真の駐車空間入口位置を検出するフローチャートであ
り、処理内容は同様であるので、以下図10のフローチ
ャートのみについて説明する。まずS438にてエッジ
座標、つまり臨界距離データwn1[ i] に隣接する距
離データwn1[ i] +1が、上述した前面境界線X=
AY+Bに対し、原点側にあるのか否かが判定される。
すなわち、 X(wn1[ i] +1)<AY(wn1[ i] +1)+B か否かが判定される。原点側にない場合には、さらにS
440にて臨界距離データwn1[ i] に隣接する距離
データwn1[ i] −1が、上述した前面境界線X=A
Y+Bに対し、原点側にあるのか否かが判定される。す
なわち、 X(wn1[ i] −1)<AY(wn1[ i] −1)+B か否かが判定される。臨界距離データwn1[ i] に隣
接する距離データwn1[ i] +1、wn1[ i] −1
いずれも原点側にないと判定された場合には、臨界距離
データwn1[ i] が真の駐車空間を示すエッジ座標で
あることになり、S441で駐車空間前面境界線へのこ
のエッジ座標の射影を算出して駐車空間入口座標(GX
1(i),GY1(i))とする。
After the edge correction is completed as described above, the process moves to the process of detecting the final parking space entrance position. The coordinates detected by the processing up to this point are the left and right edge coordinates, that is, the coordinates of the distance data closest to the parking entrance. Therefore, it is necessary to perform processing for calculating the true parking space entrance coordinates from the extracted distance data, and this processing is shown in the flowcharts of FIGS. 10 and 11. 10 and 11 are flowcharts for detecting the true parking space entrance position from the left and right edge coordinates, respectively, and since the processing contents are the same, only the flowchart in FIG. 10 will be described below. First, in step S438, the edge coordinates, that is, the distance data wn1 [i] +1 adjacent to the critical distance data wn1 [i] is converted to the front boundary line X =
It is determined whether AY + B is on the origin side.
That is, it is determined whether or not X (wn1 [i] +1) <AY (wn1 [i] +1) + B. If it is not on the origin side, S
At 440, the distance data wn1 [i] -1 adjacent to the critical distance data wn1 [i] is the front boundary line X = A described above.
It is determined whether or not it is on the origin side with respect to Y + B. That is, it is determined whether or not X (wn1 [i] -1) <AY (wn1 [i] -1) + B. Distance data wn1 [i] +1 and wn1 [i] -1 that are adjacent to the critical distance data wn1 [i].
When it is determined that none of them is on the origin side, the critical distance data wn1 [i] is the edge coordinate indicating the true parking space, and in S441, the projection of this edge coordinate to the front boundary of the parking space is performed. To calculate the parking space entrance coordinates (GX
1 (i), GY1 (i)).

【0040】一方、隣接距離データwn1[ i] +1、
wn1[ i] −1のいずれかが原点側にある場合には、
S442またはS443にてその隣接距離データが駐車
空間入口座標であると判断する。
On the other hand, the adjacent distance data wn1 [i] +1,
If any of wn1 [i] -1 is on the origin side,
In S442 or S443, it is determined that the adjacent distance data is the parking space entrance coordinates.

【0041】このようにして駐車空間入口座標(GX1
(i),GY1(i))、(GX2(i),GY2
(i))が臨界距離データwn1[ i] 及びこれに隣接
する距離データwn1[ i] +1、wn1[ i] −1に
内、最も原点、すなわち車両に近いデータを駐車空間入
口座標とすることにより、真の駐車空間位置付近に障害
物があった場合にも、この障害物を無視することなく駐
車空間入口を検出することができる。
In this way, the parking space entrance coordinates (GX1
(I), GY1 (i)), (GX2 (i), GY2
(I)) In the critical distance data wn1 [i] and the distance data wn1 [i] +1 and wn1 [i] -1 adjacent to the critical distance data wn1 [i] -1, the origin, that is, the data closest to the vehicle is used as the parking space entrance coordinates. Thus, even if there is an obstacle near the true parking space position, the parking space entrance can be detected without ignoring the obstacle.

【0042】なお、図10及び図11においては、臨界
距離データ及び隣接する距離データのX成分同士を比較
することにより原点側にあるか否かを判定したが、必要
に応じて距離データのY成分同士を比較して判定するこ
ともできる。本願出願人は駐車空間に対する車両の相対
位置によりX成分、Y成分いずれを用いるべきかが決定
されることを確かめている。そして、本実施例ではさら
に、駐車空間に車両を誘導するためのアシストパラメー
タとして、駐車空間の中心及び駐車空間の幅を算出して
いる。このため、図12に示すように前述のようにして
求めた駐車空間入口座標(GX1(i),GY1
(i))、(GX2(i),GY2(i))を用いてそ
の中心座標(GX(i),GY(i))及び幅w(i)
を算出する(S451)。
In FIGS. 10 and 11, it is determined whether or not the distance is on the origin side by comparing the X components of the critical distance data and the adjacent distance data. It is also possible to judge by comparing the components. The Applicant has confirmed that the relative position of the vehicle with respect to the parking space determines which of the X and Y components should be used. Further, in the present embodiment, the center of the parking space and the width of the parking space are calculated as assist parameters for guiding the vehicle to the parking space. Therefore, as shown in FIG. 12, the parking space entrance coordinates (GX1 (i), GY1
(I)), (GX2 (i), GY2 (i)), and their center coordinates (GX (i), GY (i)) and width w (i).
Is calculated (S451).

【0043】こうして駐車空間の入口座標、中心座標及
び駐車空間の幅が算出されたことにより、駐車空間検出
は事実上終了するが、実際に車両をこの検出された駐車
空間に誘導するためには、駐車空間と車両とのなす角を
算出する必要がある。また、前述の処理により算出され
た駐車空間の幅が車両が実際に駐車するのに適当な幅を
有するか否かを判定する必要がある。
Since the entrance coordinates, the center coordinates, and the width of the parking space of the parking space are calculated in this way, the parking space detection is practically ended, but in order to actually guide the vehicle to the detected parking space, It is necessary to calculate the angle between the parking space and the vehicle. Further, it is necessary to determine whether or not the width of the parking space calculated by the above-mentioned processing has a width suitable for actually parking the vehicle.

【0044】そこで、本実施例では算出された幅w
(i)と車幅+α(αはドアを開く場合を想定して決定
される余裕分)との大小比較を行い(S455)、この
条件を満たす入口座標(GX1(II),GY1(I
I))、(GX2(II),GY2(II))を抽出して出
力する(S456〜S459)。一方、この条件を満た
さない場合には前述のS436に移行し、駐車不能と判
断して再スタートする。
Therefore, in this embodiment, the calculated width w
(I) is compared with the vehicle width + α (α is a margin determined assuming that the door is opened) (S455), and the entrance coordinates (GX1 (II), GY1 (I
I)) and (GX2 (II), GY2 (II)) are extracted and output (S456 to S459). On the other hand, if this condition is not satisfied, the routine proceeds to S436, where it is determined that parking is impossible and the engine restarts.

【0045】そして、車両と駐車空間とのなす姿勢角
(車両中心線と駐車空間前面境界線とのなす角)を算出
する(S460)。車両中心線の方向を表すベクトルa
は、 a=(x(20),y(20))−(0,0) 但し、x(20),y(20)は中心距離データ で表され、駐車空間前面境界線方向を表すベクトルbは
前述の2回目の最小2乗法で得られた直線であり、S4
59で出力された駐車入口座標を用いて b=(GX1(II),GY1(II))−(GX2(II),GY2(II)) となる。従って、姿勢角ξはS461及びS462で示
される計算式により算出される。図21にはこのように
して算出されたM1〜M3の駐車入口座標、中心座標及
び車両の姿勢角が示されている。いずれにおいても正確
な位置及び値が算出されており、従って自動駐車を行う
にも確実に車両を誘導することができることが理解され
る。
Then, the posture angle between the vehicle and the parking space (the angle between the vehicle center line and the front boundary of the parking space) is calculated (S460). Vector a representing the direction of the vehicle center line
Is a = (x (20), y (20))-(0,0) where x (20) and y (20) are represented by center distance data, and a vector b representing the direction of the front boundary line of the parking space. Is a straight line obtained by the second least squares method described above, and S4
Using the parking entrance coordinates output at 59, b = (GX1 (II), GY1 (II))-(GX2 (II), GY2 (II)). Therefore, the posture angle ξ is calculated by the calculation formulas shown in S461 and S462. FIG. 21 shows the parking entrance coordinates, center coordinates, and vehicle attitude angle of M1 to M3 calculated in this way. It is understood that accurate positions and values are calculated in each case, and therefore the vehicle can be reliably guided even during automatic parking.

【0046】このように、本実施例では2回の最小2乗
法を用いて駐車空間を決定しているが、最小2乗法をす
べての距離データに対し適用する必要は必ずしもなく、
距離データの間引き処理を行った後に最小2乗法を適用
してもよい。
As described above, in this embodiment, the parking space is determined by using the least squares method twice, but it is not always necessary to apply the least squares method to all distance data.
The least squares method may be applied after performing the thinning processing of the distance data.

【0047】[0047]

【発明の効果】以上説明したように、本発明に係る駐車
空間検出装置によれば、CCDエリアセンサにて得られ
た距離データにばらつきが生じている場合にも正確に駐
車空間を検出することが可能となる。
As described above, according to the parking space detecting apparatus of the present invention, the parking space can be accurately detected even when the distance data obtained by the CCD area sensor varies. Is possible.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例における自動駐車システムの
構成図である。
FIG. 1 is a configuration diagram of an automatic parking system according to an embodiment of the present invention.

【図2】同実施例におけるCCDエリアセンサの構成図
である。
FIG. 2 is a configuration diagram of a CCD area sensor in the embodiment.

【図3】同実施例の測距説明図である。FIG. 3 is an explanatory diagram of distance measurement of the same embodiment.

【図4】同実施例の処理フローチャートである。FIG. 4 is a processing flowchart of the embodiment.

【図5】同実施例の処理フローチャートである。FIG. 5 is a processing flowchart of the embodiment.

【図6】同実施例の処理フローチャートである。FIG. 6 is a processing flowchart of the embodiment.

【図7】同実施例の処理フローチャートである。FIG. 7 is a processing flowchart of the embodiment.

【図8】同実施例の処理フローチャートである。FIG. 8 is a processing flowchart of the embodiment.

【図9】同実施例の処理フローチャートである。FIG. 9 is a processing flowchart of the embodiment.

【図10】同実施例の処理フローチャートである。FIG. 10 is a processing flowchart of the embodiment.

【図11】同実施例の処理フローチャートである。FIG. 11 is a processing flowchart of the embodiment.

【図12】同実施例の処理フローチャートである。FIG. 12 is a processing flowchart of the embodiment.

【図13】同実施例の処理フローチャートである。FIG. 13 is a processing flowchart of the embodiment.

【図14】同実施例の処理フローチャートである。FIG. 14 is a processing flowchart of the embodiment.

【図15】同実施例の1回目の最小2乗法適用説明図で
ある。
FIG. 15 is an explanatory diagram of the first application of the least squares method of the example.

【図16】同実施例の1回目の最小2乗法適用説明図で
ある。
FIG. 16 is an explanatory diagram of application of the first least-squares method of the first embodiment.

【図17】同実施例の2回目の最小2乗法適用説明図で
ある。
FIG. 17 is an explanatory diagram of application of the least squares method for the second time in the embodiment.

【図18】同実施例の駐車空間前面境界線と距離データ
との距離算出説明図である。
FIG. 18 is an explanatory diagram of a distance calculation between the front boundary line of the parking space and the distance data in the embodiment.

【図19】同実施例のエッジ検出説明図である。FIG. 19 is an explanatory diagram of edge detection according to the same embodiment.

【図20】同実施例のエッジ座標算出説明図である。FIG. 20 is an explanatory diagram of edge coordinate calculation according to the embodiment.

【図21】同実施例の車両姿勢角算出説明図である。FIG. 21 is an explanatory diagram of vehicle attitude angle calculation according to the embodiment.

【符号の説明】[Explanation of symbols]

10 CCDエリアセンサ 12 測距用ECU 14 自動駐車制御用ECU 10 CCD area sensor 12 ECU for distance measurement 14 ECU for automatic parking control

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 G08G 1/14 A 2105−3H ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 5 Identification code Office reference number FI technical display location G08G 1/14 A 2105-3H

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 車両に搭載され、車両周囲の駐車空間を
含む所定領域を撮影して方位毎の画像データを得るCC
Dエリアセンサと、 得られた画像データから方位θ毎の物体までの距離Rを
算出する距離データ算出手段と、 得られた方位θ毎の距離データ(R,θ)を前記CCD
エリアセンサを原点とするX−Y直交座標(X,Y)に
変換する変換手段と、 変換された距離データ(X,Y)に対して最小2乗法を
用いることにより距離データ間の関係式X=f1 (Y)
を算出する第1演算手段と、 前記関係式X=f1 (Y)に対し前記CCDエリアセン
サ側に存在する距離データ(X,Y)に対して最小2乗
法を用いることにより前記駐車空間の前面境界線X=f
2 を算出する第2演算手段と、 前記前面境界線X=f2 (Y)と距離データ(X,Y)
との距離が急増する臨界距離データと原点を結ぶ直線X
=f3 (Y)と前記前面境界線X=f2 (Y)との交点
を算出する第3演算手段と、 算出された前記交点及びこの交点に隣接する距離データ
(X,Y)のうち、最も原点に近い距離成分を有するも
のを駐車空間入口位置として検出する第4演算手段と、 を有することを特徴とする駐車空間検出装置。
1. A CC which is mounted on a vehicle and which captures image data for each direction by photographing a predetermined area including a parking space around the vehicle.
The D area sensor, the distance data calculation means for calculating the distance R from the obtained image data to the object for each azimuth θ, and the obtained distance data (R, θ) for each azimuth θ to the CCD.
A conversion means for converting the area sensor into the XY Cartesian coordinates (X, Y) with the origin and the relational expression X between the distance data by using the least squares method for the converted distance data (X, Y). = F1 (Y)
And a front face of the parking space by using a least square method for the distance data (X, Y) existing on the CCD area sensor side with respect to the relational expression X = f1 (Y). Boundary line X = f
Second calculating means for calculating 2, front face boundary line X = f2 (Y) and distance data (X, Y)
A straight line X that connects the origin with the critical distance data where the distance between
= F3 (Y) and the front boundary line X = f2 (Y), the third calculation means for calculating the intersection, and the calculated intersection and the distance data (X, Y) adjacent to this intersection are the most 4. A parking space detecting device, comprising: a fourth calculating means for detecting, as a parking space entrance position, one having a distance component close to the origin.
JP4260349A 1992-09-29 1992-09-29 Parking space detecting device Pending JPH06111198A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4260349A JPH06111198A (en) 1992-09-29 1992-09-29 Parking space detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4260349A JPH06111198A (en) 1992-09-29 1992-09-29 Parking space detecting device

Publications (1)

Publication Number Publication Date
JPH06111198A true JPH06111198A (en) 1994-04-22

Family

ID=17346735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4260349A Pending JPH06111198A (en) 1992-09-29 1992-09-29 Parking space detecting device

Country Status (1)

Country Link
JP (1) JPH06111198A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7706944B2 (en) 2004-12-21 2010-04-27 Aisin Seiki Kabushiki Kaisha Parking assist device
US8374749B2 (en) 2007-05-16 2013-02-12 Aisin Seiki Kabushiki Kaisha Parking assist system
CN103419778A (en) * 2012-05-18 2013-12-04 现代摩比斯株式会社 Parking control system and method thereof
CN103448717A (en) * 2012-06-04 2013-12-18 现代摩比斯株式会社 Apparatus and method for controlling automatic parking
US10668855B2 (en) 2015-07-29 2020-06-02 Kyocera Corporation Detection apparatus, imaging apparatus, vehicle, and detection method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7706944B2 (en) 2004-12-21 2010-04-27 Aisin Seiki Kabushiki Kaisha Parking assist device
US8374749B2 (en) 2007-05-16 2013-02-12 Aisin Seiki Kabushiki Kaisha Parking assist system
CN103419778A (en) * 2012-05-18 2013-12-04 现代摩比斯株式会社 Parking control system and method thereof
CN103419778B (en) * 2012-05-18 2017-04-26 现代摩比斯株式会社 Parking control system and method thereof
CN103448717A (en) * 2012-06-04 2013-12-18 现代摩比斯株式会社 Apparatus and method for controlling automatic parking
US10668855B2 (en) 2015-07-29 2020-06-02 Kyocera Corporation Detection apparatus, imaging apparatus, vehicle, and detection method

Similar Documents

Publication Publication Date Title
US7551067B2 (en) Obstacle detection system
CN102356633B (en) Calibration device and method for onboard camera
US7046822B1 (en) Method of detecting objects within a wide range of a road vehicle
CN110490172B (en) Parking space position compensation method, system, device and medium for information fusion parking
CN101030256B (en) Method and apparatus for cutting vehicle image
JPWO2019098353A1 (en) Vehicle position estimation device and vehicle control device
US20200372794A1 (en) Method of detecting speed using difference of distance between object and monitoring camera
US8098933B2 (en) Method and apparatus for partitioning an object from an image
LU502288B1 (en) Method and system for detecting position relation between vehicle and lane line, and storage medium
US6628210B2 (en) Control system to prevent lane deviation of vehicle and control method thereof
JP2002022439A (en) Outside monitor of car having failsafe function
US20200193193A1 (en) Image processing device and image processing method
CN113011255A (en) Road surface detection method and system based on RGB image and intelligent terminal
US11157757B2 (en) Image processing device and image processing method
JPH06111198A (en) Parking space detecting device
JP4925498B2 (en) Outside vehicle monitoring device with fail-safe function
JP2004034946A (en) Image processing device, parking support device, and image processing method
JP2995999B2 (en) Parking space detection device
Yang Estimation of vehicle's lateral position via the Lucas-Kanade optical flow method
JP2003308599A (en) Traveling route environment detector
US11256933B2 (en) Image processing device and image processing method
EP1130544A1 (en) Linear mark detecting method and device
WO2022009537A1 (en) Image processing device
JP2000259997A (en) Height of preceding vehicle and inter-vehicle distance measuring device
JPH05324954A (en) Device for counting the number of parked cars