JP4321357B2 - Parking assistance device - Google Patents

Parking assistance device Download PDF

Info

Publication number
JP4321357B2
JP4321357B2 JP2004157739A JP2004157739A JP4321357B2 JP 4321357 B2 JP4321357 B2 JP 4321357B2 JP 2004157739 A JP2004157739 A JP 2004157739A JP 2004157739 A JP2004157739 A JP 2004157739A JP 4321357 B2 JP4321357 B2 JP 4321357B2
Authority
JP
Japan
Prior art keywords
parking
vehicle
image
parked
obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004157739A
Other languages
Japanese (ja)
Other versions
JP2005335568A (en
Inventor
耕治 加藤
真和 竹市
善久 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2004157739A priority Critical patent/JP4321357B2/en
Publication of JP2005335568A publication Critical patent/JP2005335568A/en
Application granted granted Critical
Publication of JP4321357B2 publication Critical patent/JP4321357B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、自車の駐車を支援する駐車支援装置に関する。   The present invention relates to a parking support device that supports parking of a host vehicle.

近年、自動車において、自動操舵による駐車支援装置が装着されている(例えば、非特許文献1参照)。この駐車支援装置は、ギアを後退へ入れるとセンターコンソールのモニタ画面に縦列駐車・車庫入れの選択画面が現れ、当該駐車方法を選択すると、車両の後部に後方を撮影出来るように装着されたカメラにより後方画像を撮影してその映像をリアルタイムに表示する。   2. Description of the Related Art In recent years, a parking assist device by automatic steering is mounted on an automobile (for example, see Non-Patent Document 1). This parking assist device is a camera that is installed so that when a gear is moved backward, a selection screen for parallel parking / garage appears on the monitor screen of the center console, and when the parking method is selected, the rear of the vehicle can be photographed. By taking a back image, the image is displayed in real time.

ここで、目標の駐車位置を意味する駐車枠を、前記画像を見ながらドライバが設定する。その後、この駐車枠の設定を完了すると、安全の確認を経て、駐車動作が開始される。   Here, the driver sets a parking frame that means a target parking position while viewing the image. Thereafter, when the setting of the parking frame is completed, the parking operation is started after confirmation of safety.

しかして、駐車動作においては、ドライバにはブレーキ操作(安全確認含む)が課され、ステアリングは車両側が自動操舵するため、駐車枠内に自動車が駐車されることになる。
“トヨタ自動車が2003年9月1日にプリウスを発売する。”「平成16年4月23日検索」インターネット<URLhttp://www.toyota.co.jp/Showroom/All_toyota_lineup/prius/index.html>
Thus, in the parking operation, a brake operation (including safety confirmation) is imposed on the driver, and since the steering is automatically steered by the vehicle side, the automobile is parked in the parking frame.
“Toyota will release Prius on September 1, 2003.” “April 23, 2004 Search” Internet <URL http://www.toyota.co.jp/Showroom/All_toyota_lineup/prius/index.html >

ところで、上述の駐車支援装置において、前記駐車枠の設定は、現状の自車が位置する場所からの画像上で実施するため、既駐車車両12、13の横を通り過ぎた後にカメラにより後方画像を撮影すると、例えば、図5に示すように、後方画像としては、カメラにより既駐車車両12、13に対して斜めに視認するような画角になり、車両枠11と既駐車車両12、13との位置関係が掴み難い問題がある。   By the way, in the parking assistance apparatus described above, the setting of the parking frame is performed on the image from the location where the current vehicle is located, so that the rear image is displayed by the camera after passing the side of the parked vehicles 12 and 13. For example, as shown in FIG. 5, when the image is taken, the rear image has an angle of view that is obliquely viewed with respect to the parked vehicles 12 and 13 by the camera, and the vehicle frame 11 and the parked vehicles 12 and 13. There is a problem that it is difficult to grasp the positional relationship.

これに伴い、位置関係の掴み難さのため、駐車枠が上手く設定出来ず、上手く駐車出来ない(真っ直ぐに停められない等)問題もある。さらに、図4に示すような障害物18は、図5のような画角では既駐車車両12による死角に入りドライバは知ることが出来ず、駐車動作を開始して接近した後初めて認識出来るため、駐車動作を一旦止めて再度チャレンジする必要があるといった問題がある。   Along with this, there is a problem in that it is difficult to grasp the positional relationship, so that the parking frame cannot be set well, and parking cannot be performed well (such as being unable to stop straight). Furthermore, the obstacle 18 as shown in FIG. 4 enters the blind spot by the parked vehicle 12 at the angle of view as shown in FIG. 5 and the driver cannot know it, and can recognize it only after approaching the parking operation. There is a problem that it is necessary to stop the parking operation and challenge again.

本発明は、上記点に鑑み、ユーザに対して、車両枠と各既駐車車両との位置関係を良好に把握できるようにした駐車支援装置を提供することを目的とする。   An object of this invention is to provide the parking assistance apparatus which enabled it to grasp | ascertain now the positional relationship of a vehicle frame and each already-parked vehicle with respect to a user in view of the said point.

上記目的を達成するため、請求項1に記載の発明では、2台の既駐車車両の間の駐車スペースとしての映像に駐車枠(11)を重畳表示させるように表示手段(117)を制御する制御手段(111)を備える駐車支援装置であって、
前記2台の既駐車車両の付近を当該自車が移動する際に、前記2台の既駐車車両側を繰り返し撮影するカメラ手段(114)と、
前記2台の既駐車車両の付近を当該自車が移動する際に、前記2台の既駐車車両側の障害物までの距離情報を繰り返し計測する計測手段(113)と、
前記計測手段による前記距離情報の測定毎に自車位置を検出する位置検出手段(115、112)と、を備えており、
前記制御手段は、前記計測された各距離情報および前記検出された各自車位置に応じて、前記駐車スペースの中央部を当該自車が通過したタイミングを推定し、さらに前記カメラ手段により撮影された映像のうち、前記推定されたタイミングにて撮影された映像を抽出して、この抽出された映像を前記駐車スペースとして前記表示手段に表示させることを特徴とする駐車支援装置。
In order to achieve the above object, in the first aspect of the present invention, the display means (117) is controlled so that the parking frame (11) is superimposed and displayed on the image as the parking space between the two parked vehicles. A parking assistance device comprising a control means (111),
Camera means (114) for repeatedly photographing the two parked vehicles when the vehicle moves in the vicinity of the two parked vehicles;
Measuring means (113) for repeatedly measuring distance information to an obstacle on the two parked vehicles when the vehicle moves in the vicinity of the two parked vehicles;
And position detecting means (115, 112) for detecting the position of the vehicle every time the distance information is measured by the measuring means,
The control means estimates the timing at which the vehicle has passed through the center of the parking space according to the measured distance information and the detected vehicle position, and is further photographed by the camera means. A parking assistance device, wherein a video photographed at the estimated timing is extracted from the video, and the extracted video is displayed on the display unit as the parking space.

請求項1に記載の発明によれば、駐車スペースの中央部を当該自車が通過したタイミングにて撮影された映像を駐車スペースとして表示手段に表示させるので、駐車スペースを正面から撮影された映像を表示手段にて表示させることができる。このような映像に駐車枠を重畳表示させるので、ユーザにとって、各既既駐車車両と駐車枠との位置関係を良好に把握できる。   According to invention of Claim 1, since the image | video image | photographed at the timing which the said vehicle passed the center part of the parking space is displayed on a display means as a parking space, the image | video which image | photographed the parking space from the front Can be displayed on the display means. Since the parking frame is superimposed and displayed on such an image, the user can better grasp the positional relationship between each already-parked vehicle and the parking frame.

請求項2に記載の発明によれば、請求項1に記載の駐車支援装置において、前記制御手段は、前記計測された各距離情報および前記検出された各自車位置に応じて、前記障害物の外縁を推定し、さらに前記表示手段を制御して前記外縁を前記駐車スペースとしての映像に重畳表示させることを特徴とする。   According to a second aspect of the present invention, in the parking assist device according to the first aspect, the control means determines the obstacle according to the measured distance information and the detected vehicle position. An outer edge is estimated, and the display means is further controlled to superimpose the outer edge on the image as the parking space.

したがって、ユーザにとっては、障害物の外縁を把握し易くなるので、障害物(例えば、既駐車車両)および駐車枠の位置関係を、より一層良好に把握できる。   Therefore, since it becomes easy for the user to grasp the outer edge of the obstacle, the positional relationship between the obstacle (for example, a parked vehicle) and the parking frame can be grasped better.

請求項3に記載の発明によれば、請求項1又は2に記載の駐車支援装置において、前記制御手段は、前記駐車スペースとしての映像を鳥瞰図に変換して前記表示手段に表示させるので、映像に含まれる障害物がユーザにとって把握し易くなる。   According to a third aspect of the present invention, in the parking assist device according to the first or second aspect, the control means converts the image of the parking space into a bird's eye view and displays it on the display means. It is easy for the user to grasp the obstacles included in.

なお、上記各手段の括弧内の符号は、後述する実施形態に記載の具体的手段との対応関係を示すものである。   In addition, the code | symbol in the bracket | parenthesis of each said means shows the correspondence with the specific means as described in embodiment mentioned later.

(第1実施形態)
図1に本発明に係る駐車支援装置が適用された駐車支援装置の一実施形態を示す。
先ず、図1〜図3を参照して駐車支援装置の概略動作について説明する。図1は、自車110が既駐車車両12、13の間の空間(自車110から見て空間の奥には、縁石14や街路樹15がある)に縦列駐車しようとする場合について示している。
(First embodiment)
FIG. 1 shows an embodiment of a parking assistance device to which a parking assistance device according to the present invention is applied.
First, the schematic operation of the parking assistance apparatus will be described with reference to FIGS. FIG. 1 shows a case where the own vehicle 110 tries to park in parallel in the space between the parked vehicles 12 and 13 (the curb 14 and the roadside tree 15 are in the back of the space when viewed from the own vehicle 110). Yes.

ここで言う縦列駐車とは、図7(a)中の矢印Y1の如く自車110が前進して既駐車車両12、13の横を通過したのち、図7(b)中の矢印Y2の如く自車110が後退して既駐車車両12、13の間に駐車する動作である。また、既駐車車両とは、駐車中の自動車のことである。   The parallel parking referred to here is as indicated by an arrow Y2 in FIG. 7B after the host vehicle 110 moves forward as shown by an arrow Y1 in FIG. In this operation, the host vehicle 110 moves backward and parks between the parked vehicles 12 and 13. An already parked vehicle is a parked car.

先ず、自車110は、図2の時間0の位置より図1の時間Eの現位置まで既駐車車両の横(すなわち、付近)をほぼ平行に走り抜ける。この間、車両側方に車両進行方向に対し横向きに設置された測距センサ113を用いて、一定の検知エリア150で、ある時間間隔毎に繰り返し障害物までの距離測定をする。これに加えて、後述する舵角センサおよび車速センサに基づいて、距離測定毎に、自車110の位置を検出する。同時に、測距センサ113と同様に横向きに設置されたカメラ114をも用いて、一定の画角160である時間間隔毎に撮影をする。   First, the own vehicle 110 runs through the side (that is, the vicinity) of the already parked vehicle almost in parallel from the position at time 0 in FIG. 2 to the current position at time E in FIG. During this time, the distance measurement to the obstacle is repeatedly performed at certain time intervals in the fixed detection area 150 using the distance measuring sensor 113 installed on the side of the vehicle in a direction transverse to the vehicle traveling direction. In addition to this, the position of the host vehicle 110 is detected for each distance measurement based on a steering angle sensor and a vehicle speed sensor which will be described later. At the same time, as with the distance measuring sensor 113, the camera 114 installed in the horizontal direction is also used to capture images at every time interval having a constant angle of view 160.

しかして、前記測距センサ113の測定結果(距離情報)を、測定時の自車110の位置を基に図1のような上面図(2D図)に黒点にて(図1中●で示す)描画すると、点17のように、既駐車車両12、13の側面に沿って、ある間隔毎に並ぶことになる。   Accordingly, the measurement result (distance information) of the distance measuring sensor 113 is indicated by a black dot (● in FIG. 1) on a top view (FIG. 2D) as shown in FIG. 1 based on the position of the vehicle 110 at the time of measurement. ) When drawn, the lines are arranged at certain intervals along the side surfaces of the parked vehicles 12 and 13 as indicated by points 17.

この距離情報の描画は、測距センサ113の正面に障害物が存在したと仮定している。これら点描17の並びから、既駐車車両12、13の位置が判る。すなわち、障害物までの各距離情報および自車110の位置に応じて障害物、例えば、既駐車車両12、13の外縁を推定することになる。この推定される外縁に基づいて、既駐車車両12、13の間の駐車スペースの中央部を自車110が通過する通過タイミング(図3の時間Tcに相当する)を求める。   This drawing of distance information assumes that an obstacle is present in front of the distance measuring sensor 113. The positions of the parked vehicles 12 and 13 can be determined from the arrangement of the pointillisms 17. That is, the outer edge of the obstacle, for example, the parked vehicles 12 and 13 is estimated according to the distance information to the obstacle and the position of the host vehicle 110. Based on this estimated outer edge, the passage timing (corresponding to the time Tc in FIG. 3) at which the host vehicle 110 passes through the central portion of the parking space between the parked vehicles 12 and 13 is obtained.

なお、図3においては、既駐車車両12、13の間の寸法をLとして、駐車スペースの中央部は、既駐車車両12、13からL/2の位置としている。   In FIG. 3, the dimension between the parked vehicles 12 and 13 is L, and the central portion of the parking space is at a position L / 2 from the parked vehicles 12 and 13.

ここで、前記中央部を通過する通過タイミングTcで撮影した前記カメラ114による撮像を抽出して表示すれば、目的の駐車スペースを正面(真横)から見渡す画像となる(図6参照。点枠16は画像に撮影される範囲を模している)。   Here, if an image captured by the camera 114 taken at the passage timing Tc passing through the central portion is extracted and displayed, an image overlooking the target parking space from the front (right side) is obtained (see FIG. 6, dot frame 16). Imitates the area captured in the image).

この画像を基に、前記自動操舵による駐車支援装置の駐車枠の設定をすれば、車両枠と既駐車車両12、13との位置関係も良好に把握し易く、また死角も少ないため障害物の見落としを防止することが出来る。   Based on this image, if the parking frame of the parking assist device by the automatic steering is set, the positional relationship between the vehicle frame and the parked vehicles 12 and 13 can be easily grasped, and there are few blind spots. Oversight can be prevented.

図1〜図3に示す動作は、全く同様に図8に示すような並列駐車(車庫入れ駐車)にも適用出来ることは容易に推測可能である。ここで言う並列駐車とは、図8(a)中矢印Y3の如く自車110が前進して図8(b)中矢印Y4の如く自車110が後退して駐車することである。   It can be easily guessed that the operations shown in FIGS. 1 to 3 can be applied to parallel parking (garage parking) as shown in FIG. Here, the parallel parking means that the own vehicle 110 moves forward as indicated by an arrow Y3 in FIG. 8A and the own vehicle 110 moves backward and parks as indicated by an arrow Y4 in FIG. 8B.

このような並列駐車の場合も、図5で示した縦列駐車での駐車枠の設定と同様に、図9に示すような画角では駐車枠11の設定がし難い或いは既駐車車両13による死角に障害物が存在しているなど、駐車動作の妨げ、煩わしさにつながる事象が起こり得る。   In the case of such parallel parking, similarly to the setting of the parking frame in the parallel parking shown in FIG. 5, it is difficult to set the parking frame 11 with the angle of view as shown in FIG. There may be an event that obstructs the parking operation and causes annoyance, such as the presence of an obstacle.

そこで、図1〜3を用いて説明した本手法によれば、駐車枠11の設定を目標の駐車スペースを正面から撮影した画像(図10参照)を用いることが出来るため、位置関係も掴み易く、また死角も少ないため障害物の見落としを防止することが出来る。   Therefore, according to the present method described with reference to FIGS. 1 to 3, the image of the target parking space can be used for setting the parking frame 11 (see FIG. 10), and the positional relationship can be easily grasped. Also, since there are few blind spots, oversight of obstacles can be prevented.

次に、本実施形態の駐車支援装置のシステム構成について説明する。自車110には、前述した測距センサ113、カメラ114の他に、駐車支援で画像を表示する液晶ディスプレー等の表示器117、車両の動き(すなわち、自車110の操舵角)を求めるための舵角センサ115、操作部116、車速センサ112、及び、後述するように駐車支援を行うためのコンピュータプログラムを実行する処理ユニット111を搭載する。   Next, the system configuration of the parking assistance device of the present embodiment will be described. In the own vehicle 110, in addition to the distance measuring sensor 113 and the camera 114 described above, a display 117 such as a liquid crystal display that displays an image by parking assistance, and the movement of the vehicle (that is, the steering angle of the own vehicle 110) are obtained. The steering angle sensor 115, the operation unit 116, the vehicle speed sensor 112, and a processing unit 111 that executes a computer program for performing parking assistance as will be described later are mounted.

ここで、本実施形態では、測距センサ113として、例えば、超音波センサが用いられている。超音波センサは、超音波信号を送信してから、対象物表面で反射して戻ってきた反射波の受信までに要する伝搬時間tsを計測して、この伝搬時間tsを距離に換算して、超音波センサから障害物までの間の距離L{(ts/2)×Vs(音速)}を測定するセンサである。このセンサでは、音(超音波)を用いるため、媒体となる空気が風や温度変化などにより揺らぐと測定結果に影響が出たり、反射までの時間が光や電波に比べ長いことから、高速に移動している自車からの測定や高速に移動する障害物を捕らえることを苦手とする短所を持つ。   Here, in the present embodiment, for example, an ultrasonic sensor is used as the distance measuring sensor 113. The ultrasonic sensor measures the propagation time ts required from the transmission of the ultrasonic signal to the reception of the reflected wave reflected and returned from the surface of the object, and converts the propagation time ts into a distance. This is a sensor for measuring the distance L {(ts / 2) × Vs (sound speed)} between the ultrasonic sensor and the obstacle. Since this sensor uses sound (ultrasonic waves), if the air as a medium fluctuates due to wind or temperature changes, the measurement results will be affected, and the time until reflection will be longer than that of light or radio waves. It has the disadvantage that it is not good at measuring obstacles moving at high speed and moving from its own vehicle.

なお、測距センサ113としては、超音波センサを用いる場合に限らず、例えば、ミリ波等の電波を用いて障害物までの間の距離を測定するセンサを用いてもよい。   Note that the distance measuring sensor 113 is not limited to an ultrasonic sensor, and may be a sensor that measures the distance to an obstacle using radio waves such as millimeter waves.

一方、処理ユニット111は、例えば、図12に示すような半導体装置で実現され、センサの情報や処理ユニットの演算結果等を格納する記憶部121、後述するように駐車支援を行うためのコンピュータプログラムを処理する演算部123及びCPU122、センサ112、113やカメラ114及び表示器117とのインターフェースである入力部124、出力部125を備える。ここで、表示器117は、後述するように駐車スペース等の情報を表示する。   On the other hand, the processing unit 111 is realized by a semiconductor device as shown in FIG. 12, for example, a storage unit 121 that stores sensor information, calculation results of the processing unit, and the like, and a computer program for parking assistance as will be described later Are provided with an arithmetic unit 123 and a CPU 122, sensors 112 and 113, a camera 114 and an indicator 117, and an input unit 124 and an output unit 125. Here, the indicator 117 displays information such as a parking space as will be described later.

次に、本実施形態の作動の一例について説明する。先ず、駐車支援(図2、図1参照)を開始する前の事前処理について図13を用いて説明する。   Next, an example of the operation of this embodiment will be described. First, the pre-processing before starting parking assistance (refer FIG. 2, FIG. 1) is demonstrated using FIG.

事前処理は、既駐車車両12、13等の障害物の情報を調べるために、図1中下側の既駐車車両13の横側から図1中上側の既駐車車両12の横側まで走る抜ける際に実行される。   In the pre-processing, in order to check information on obstacles such as the parked vehicles 12 and 13, the vehicle runs from the side of the parked vehicle 13 on the lower side in FIG. 1 to the side of the parked vehicle 12 on the upper side in FIG. When executed.

図13は、事前処理を示すフローチャートであり、処理ユニット111は、図13に示すフローチャートにしたがって、コンピュータプログラムを実行する。このコンピュータプログラムは、運転者が操作部116に対して前処理の開始を指令するために操作すると実行されるものである。車速が例えば10km/h以下になると自動的に開始されるようにしても良い。   FIG. 13 is a flowchart showing the pre-processing, and the processing unit 111 executes the computer program according to the flowchart shown in FIG. This computer program is executed when the driver operates to instruct the operation unit 116 to start preprocessing. It may be automatically started when the vehicle speed becomes 10 km / h or less, for example.

まず、時間に相当するカウンタをリセットした後(ステップS100)、車速センサ112及び舵角センサ115から車速データ、操舵角データを取得し(ステップS110、S120)、車速データ、操舵角データに基づいて車両位置を計算する(ステップS130)。なお、車両位置の計算に際しては、GPS(Global Positioning System)を利用してもよい。   First, after resetting a counter corresponding to time (step S100), vehicle speed data and steering angle data are acquired from the vehicle speed sensor 112 and the steering angle sensor 115 (steps S110 and S120), and based on the vehicle speed data and the steering angle data. A vehicle position is calculated (step S130). In calculating the vehicle position, GPS (Global Positioning System) may be used.

ここで、車速を10km/h以下に限定しているのは、前述した超音波センサの短所への対策である。   Here, limiting the vehicle speed to 10 km / h or less is a measure against the disadvantages of the ultrasonic sensor described above.

そして、この求めた車両位置を、記憶部121のうち、現カウンタ値が指し示すアドレスのエリアへ格納する(ステップS140)。同時刻に、カメラ114でも撮影し(ステップS150)、このカメラ画像を、記憶部121のうち現カウンタ値が指し示すアドレスのエリアへ格納する(ステップS160)。また同時刻に、測距センサ113でも距離情報を測定し(ステップS170)、この距離情報を、記憶部121のうち現カウンタ値が指し示すアドレスのエリアへ格納する(ステップS180)。その後、カウンタ値をインクリメントする(ステップS190)。   Then, the obtained vehicle position is stored in the area of the address indicated by the current counter value in the storage unit 121 (step S140). At the same time, the camera 114 also takes a picture (step S150), and this camera image is stored in the area of the address indicated by the current counter value in the storage unit 121 (step S160). At the same time, the distance sensor 113 also measures distance information (step S170), and stores this distance information in the area of the address indicated by the current counter value in the storage unit 121 (step S180). Thereafter, the counter value is incremented (step S190).

以上により、記憶部121のうち同一アドレスの示すエリアに、車両位置、カメラ画像、および距離情報が格納されることになる。   As described above, the vehicle position, the camera image, and the distance information are stored in the area indicated by the same address in the storage unit 121.

その後、変速機のギア位置を判定し(ステップS195)、もし変速機が後退(バック)に設定されている場合には、駐車支援処理を開始し、もし、変速機が後退以外のギア位置に設定されている場合にはステップS100に戻り、変速機が後退に設定される迄、事前処理の動作を繰り返す。   Thereafter, the gear position of the transmission is determined (step S195). If the transmission is set to reverse (back), parking assist processing is started, and if the transmission is in a gear position other than reverse. If it is set, the process returns to step S100, and the preprocessing operation is repeated until the transmission is set to reverse.

なお、車速が10km/hを越えた場合は、処理が終了し、再度スタートからやり直すため、カウンタ値はリセットされてしまい、それまで格納した各種情報は全て無効となる。   If the vehicle speed exceeds 10 km / h, the process ends and the process starts again from the start. Therefore, the counter value is reset, and all the stored information is invalid.

次に、駐車支援処理について図14を用いて説明する。図14は、駐車支援処理を示すフローチャートである。   Next, parking assistance processing will be described with reference to FIG. FIG. 14 is a flowchart showing parking support processing.

まず、障害物の位置を算出し(ステップS200)、その障害物の位置から駐車スペースの中央の相当するカメラの撮影位置(カメラ画像の位置)を求める(ステップS210)。この求めた撮影位置に相当する画像を記憶部121から読み出(READ)して(ステップS220)、カメラ画像(駐車スペースとしての映像)を表示器117に表示し(ステップS230)、かつ、この表示画像に重畳するようにして駐車枠の設定を行う(ステップ240)。そして、この設定した駐車枠に従って、車両は自動操舵による駐車支援を行う。   First, the position of the obstacle is calculated (step S200), and the shooting position (camera image position) of the corresponding camera at the center of the parking space is obtained from the position of the obstacle (step S210). An image corresponding to the obtained shooting position is read from the storage unit 121 (READ) (step S220), and a camera image (video as a parking space) is displayed on the display 117 (step S230). A parking frame is set so as to be superimposed on the display image (step 240). And according to this set parking frame, a vehicle performs parking assistance by automatic steering.

次に、障害物の位置算出処理(ステップS200)、カメラの撮影位置の算出処理(ステップS210)、駐車枠の設定処理(ステップ240)のそれぞれの具体的処理について説明する。
(障害物の位置算出処理)
図15は、障害物の位置算出処理を示すフローチャートである。先ず、上述の事前処理で格納されたアドレス毎の距離情報(すなわち、障害物までの距離)及び車両位置を記憶部121から読み出し(ステップS300、S310)、障害物の距離情報の分布状態を算出する。
Next, specific processes of the obstacle position calculation process (step S200), the camera shooting position calculation process (step S210), and the parking frame setting process (step 240) will be described.
(Obstacle position calculation process)
FIG. 15 is a flowchart showing an obstacle position calculation process. First, the distance information for each address (that is, the distance to the obstacle) and the vehicle position stored in the above pre-processing are read from the storage unit 121 (steps S300 and S310), and the distribution state of the obstacle distance information is calculated. To do.

具体的には、図16に示すように、縦軸(y軸)を障害物までの算出距離とし、横軸(x軸)を車両位置とする2次元座標上(2D図)において、障害物の検出位置を黒丸にてプロットする。   Specifically, as shown in FIG. 16, on the two-dimensional coordinates (2D diagram) where the vertical axis (y-axis) is the calculated distance to the obstacle and the horizontal axis (x-axis) is the vehicle position, the obstacle The detection position is plotted with a black circle.

図16では、測距センサ113(つまり、自車110)が、位置Pt、Pt+1…を通過した際に、位置Pt、Pt+1…で障害物及び自車の間の距離を算出し、この算出毎の距離を、例えば、点1.1、点1.2、点1.5のようにプロットした例を示している。   In FIG. 16, when the distance measuring sensor 113 (that is, the own vehicle 110) passes through the positions Pt, Pt + 1..., The distance between the obstacle and the own vehicle is calculated at the positions Pt, Pt + 1. For example, the distance is plotted as point 1.1, point 1.2, and point 1.5.

次に、2次元座標上において各プロットの直線性を評価して(ステップS330)、その評価結果に基づいて、駐車車両パターンを決定する(ステップS350)。   Next, the linearity of each plot is evaluated on two-dimensional coordinates (step S330), and a parked vehicle pattern is determined based on the evaluation result (step S350).

例えば、図16の如く、直線性を有する各点の集合が二つある場合には、図3に示す如く、前後の駐車車両12、13が存在すると推定する。これに伴い、「前後の駐車車両パターン」として駐車車両パターンを決定する。   For example, when there are two sets of points having linearity as shown in FIG. 16, it is estimated that there are front and rear parked vehicles 12 and 13 as shown in FIG. Accordingly, the parked vehicle pattern is determined as the “front and back parked vehicle pattern”.

ここで、図16においては、集合1.3内の点1.1…点1.7は、それぞれの算出距離のバラツキが所定範囲内に収まるので、点1.1…点1.7は、直線性を有すると判定する。さらに、領域1.8内の点1.5…点1.9は、それぞれの算出距離のバラツキが所定範囲内に収まるので、点1.5…点1.9は、直線性を有すると判定する。   Here, in FIG. 16, the points 1.1... 1.7 in the set 1.3 are within the predetermined range, so that the points 1.1... 1.7 are Determined to have linearity. Further, since the variation of the calculated distances of the points 1.5... 1.9 in the region 1.8 falls within a predetermined range, it is determined that the points 1.5... 1.9 have linearity. To do.

また、2次元座標上において直線性を有する各点の集合が存在しない場合には、図17に示すように、駐車車両が無いと推定する。これに伴い、駐車車両パターンとして「駐車車両無しパターン」を決定する。   If there is no set of points having linearity on the two-dimensional coordinates, it is estimated that there is no parked vehicle as shown in FIG. Accordingly, the “no-parking-vehicle pattern” is determined as the parked vehicle pattern.

さらに、後方側にだけ、直進性を有する各点の集合がある場合(図16にて集合1.3内の点1.1…点1.7だけ存在し、集合1.8内の点1.5…点1.9が存在しない場合)には、図18に示すように、後方側駐車車両13のみ存在すると推定する。これに伴い、駐車車両パターンとして「後方側駐車車両のみパターン」を決定する。   Furthermore, when there is a set of points having straightness only on the rear side (in FIG. 16, there are only points 1.1... 1.7 in the set 1.3 and point 1 in the set 1.8. ... 5 .. When the point 1.9 does not exist), it is estimated that only the rear side parked vehicle 13 exists as shown in FIG. Accordingly, the “rear side parked vehicle only pattern” is determined as the parked vehicle pattern.

また、前方側にだけ、直進性を有する各点の集合がある場合(図16にて集合1.8内の点1.5…点1.9だけ存在し、集合1.3内の点1.1…点1.7が存在しない場合)には、図19に示すように、前方側駐車車両12のみ存在すると推定する。これに伴い、「前方側駐車車両のみパターン」として駐車車両パターンを決定する。   Further, when there is a set of points having straightness only on the front side (in FIG. 16, there are only points 1.5... 1.9 in the set 1.8 and point 1 in the set 1.3). ... 1 (when point 1.7 does not exist), it is estimated that only the front side parked vehicle 12 exists as shown in FIG. Along with this, the parked vehicle pattern is determined as the “front side parked vehicle only pattern”.

(カメラの撮影位置の算出処理)
図20にカメラ画像の位置算出処理を示すフローチャートを示す。先ず、並列駐車か縦列駐車かの選択を促す画像を表示器117により表示させる。その後、乗員が当該選択を行うために操作部116を操作すると、処理ユニット111は、その操作に応じて並列駐車か縦列駐車かの選択をする(ステップS400)。
(Camera shooting position calculation process)
FIG. 20 is a flowchart showing camera image position calculation processing. First, an image prompting selection of parallel parking or parallel parking is displayed on the display 117. Thereafter, when the occupant operates the operation unit 116 to make the selection, the processing unit 111 selects parallel parking or parallel parking according to the operation (step S400).

ここで、ステップ400での選択は、後述するカメラの撮影位置を求める演算で用いるパラメータDとして、一般的な車両の全長(車両前後方向の寸法)を基準とした値Lcか、一般的な車両の全幅(車両左右方向の寸法)を基準とした値Wcのいずれを用いるかを選択するものである。   Here, the selection in step 400 is a value Lc based on the total length of the general vehicle (dimension in the vehicle front-rear direction) as a parameter D used in the calculation for obtaining the photographing position of the camera, which will be described later, or a general vehicle The value Wc based on the full width of the vehicle (the dimension in the left-right direction of the vehicle) is selected.

次に、パラメータDをLc、Wcのうち一方から求める(ステップS410a、S410b)。ここで、パラメータDを求める際に、Lc、Wcにnを乗じているが、このnは正の整数である(D=n・Lc、n・Wc)。パラメータDは、自車が並列駐車及び縦列駐車に必要な最小空間長を示している。また、正の整数nは、この最小空間長Dを自車の全長又は全幅から算出する際に乗ずる係数であり、例えばアッカーマン・ジャントー式の車両の場合、理論式より理想的な最小空間長Dは容易に計算可能である。   Next, the parameter D is obtained from one of Lc and Wc (steps S410a and S410b). Here, when determining the parameter D, Lc and Wc are multiplied by n, and this n is a positive integer (D = n · Lc, n · Wc). The parameter D indicates the minimum space length necessary for the own vehicle for parallel parking and parallel parking. Further, the positive integer n is a coefficient by which the minimum space length D is multiplied when calculating from the total length or the entire width of the own vehicle. For example, in the case of an Ackermann-Jantho vehicle, the minimum space length D is more ideal than the theoretical formula. Is easily calculable.

なお、実際には、この最小空間長Dに、さらに万が一の衝突を防止するための安全マージンを加える必要があるので、正の整数値nは経験的に決定する必要がある。   Actually, since it is necessary to add a safety margin for preventing an emergency collision to the minimum space length D, the positive integer value n needs to be determined empirically.

次に、ステップS420に移行して、上述の障害物の位置算出処理で決定した駐車車両パターンによる条件分岐を行う。   Next, the process proceeds to step S420, and conditional branching is performed based on the parked vehicle pattern determined in the above-described obstacle position calculation process.

ここで、駐車車両パターンとしては、「駐車車両無しパターン」(図17参照)、「後方側駐車車両のみパターン」(図18参照)、「前方側駐車車両のみパターン」(図19参照)、および「前後に駐車車両有りパターン」(図3参照)がある。   Here, as the parked vehicle pattern, a “no-parked vehicle pattern” (see FIG. 17), a “rear side parked vehicle only pattern” (see FIG. 18), a “front side parked vehicle only pattern” (see FIG. 19), and There is a “Parking vehicle presence / absence pattern” (see FIG. 3).

例えば、「駐車車両無しパターン」の場合は、駐車スペースを特に制限する障害物が無いため、自車110の現状位置を基準として(ステップS422)、最小空間長Dの1/2を減じた(自車から見て遠方)位置を目標駐車スペースの中央(カメラ画像の位置)とする(ステップS424)。   For example, in the case of the “no-parking vehicle pattern”, since there is no obstacle that specifically restricts the parking space, 1/2 of the minimum space length D is reduced based on the current position of the host vehicle 110 (step S422) ( The position far from the host vehicle is set as the center of the target parking space (the position of the camera image) (step S424).

また、「後方側駐車車両のみパターン」の場合は、後方駐車車両13の最近接端から現自車位置までの距離Lが最小空間長Dの2倍以下の場合には(ステップS421:NO)、後方駐車車両の最近接端を基準に最小空間長Dの1/2を加算した位置をカメラ画像の位置とする(ステップS425)。   In the case of the “rear side parked vehicle only pattern”, when the distance L from the closest end of the rear parked vehicle 13 to the current vehicle position is not more than twice the minimum space length D (step S421: NO). A position obtained by adding 1/2 of the minimum space length D with the closest end of the rear parked vehicle as a reference is set as the position of the camera image (step S425).

また、最小空間長Dの2倍より大きい時は(ステップS421:YES)、現自車位置を基準として最小空間長Dの1/2を減じた位置をカメラ画像の位置とする。この時に最小空間長Dに乗ずる“2”という係数は、2に限定されるものではない。例えば、実使用上で縦列駐車をする際に、1台の既駐車車両の先の全く障害物の無い駐車スペースに駐車しようとした場合、この既駐車車両に注意して駐車すべき位置関係は、どのくらいの距離までかを仮に最小空間長Dの2倍と仮定したに過ぎない。仮に全長が4m、前記正の整数を1.5といった小型車両の場合、係数が2の場合は、後方駐車車両から3mの部分で条件分岐されることになる。   If it is larger than twice the minimum space length D (step S421: YES), a position obtained by subtracting 1/2 of the minimum space length D from the current vehicle position is set as the position of the camera image. At this time, the coefficient “2” multiplied by the minimum space length D is not limited to 2. For example, when performing parallel parking in actual use, if you attempt to park in a parking space that is completely free of obstacles ahead of one parked vehicle, The distance is only assumed to be twice the minimum space length D. In the case of a small vehicle having a total length of 4 m and the positive integer being 1.5, when the coefficient is 2, the condition is branched at a portion of 3 m from the rear parked vehicle.

さらに、「前方駐車車両のみパターン」の場合は、前方駐車車両12の最遠方端を基準として、最小空間長Dの1/2を減じた位置をカメラ画像の位置とする(ステップS432)。   Further, in the case of the “front parked vehicle only pattern”, a position obtained by subtracting 1/2 of the minimum space length D with the farthest end of the front parked vehicle 12 as a reference is set as the position of the camera image (step S432).

さらに、「前後に駐車車両有りパターン」の場合は、後方駐車車両12の最近接端から前方駐車車両13の最遠方端までの距離Lが最小空間長Dの2倍より長い時は(ステップ430:YES)前方駐車車両の最近接端を基準に最小空間長Dの1/2を減じた位置をカメラ画像の位置とする(ステップ432)。   Further, in the case of the “front and rear parked vehicle pattern”, when the distance L from the closest end of the rear parked vehicle 12 to the farthest end of the front parked vehicle 13 is longer than twice the minimum space length D (step 430). : YES) The position obtained by subtracting 1/2 of the minimum space length D with respect to the closest end of the front parked vehicle is set as the position of the camera image (step 432).

さらに、最小空間長Dの2倍以下の時は(ステップ430:NO)、前方駐車車両の最遠方端を基準として後方駐車車両の最近接端から前方駐車車両の最遠方端までの距離Lの1/2を減じた位置をカメラ画像の位置とする(ステップS434)。   Further, when the distance is less than twice the minimum space length D (step 430: NO), the distance L from the closest end of the rear parked vehicle to the farthest end of the forward parked vehicle is determined based on the farthest end of the front parked vehicle. The position obtained by subtracting 1/2 is set as the position of the camera image (step S434).

また、「後方側駐車車両のみパターン」の場合は、図21に示すように、後方駐車車両の最近接端から自車の最後端までの距離Lを基準にカメラ画像の位置を決定する手法もある。   Further, in the case of the “rear side parked vehicle only pattern”, as shown in FIG. 21, there is also a method of determining the position of the camera image based on the distance L from the closest end of the rear parked vehicle to the end of the own vehicle. is there.

(駐車枠の設定処理)
図22は駐車枠の設定処理を示すフローチャートである。先ず駐車車両パターンの分岐まで処理(ステップS400、S410a、S410b)は、前記カメラ画像の位置算出処理と同様であるので説明を省略する。「前後に駐車車両有りパターン」の場合以外は、駐車枠の位置を前述したカメラ画像の位置と同等にすれば良い(ステップS510a、S510b、S510c、S520a、S520b、S520c)。
(Parking frame setting process)
FIG. 22 is a flowchart showing parking frame setting processing. First, the processing up to the branch of the parked vehicle pattern (steps S400, S410a, and S410b) is the same as the camera image position calculation processing, and thus description thereof is omitted. Except for the case of “Pattern with front and back pattern”, the position of the parking frame may be equal to the position of the camera image described above (steps S510a, S510b, S510c, S520a, S520b, and S520c).

なお、駐車枠の横寸法は、「Lc+30×2」であって、縦寸法は、「Wc+30×2」である。   The horizontal dimension of the parking frame is “Lc + 30 × 2”, and the vertical dimension is “Wc + 30 × 2”.

また、「前後に駐車車両がありパターン」且つ後方駐車車両の最近接端から前方駐車車両の最遠方端までの距離Lが最小空間長Dの2倍以下の時は(ステップS430:NO)、駐車枠位置を枠位置1〜3まで設定し、ドライバの要求に応じて順次枠位置1より表示していく。枠位置1〜3の一例として、縦列駐車の場合を図24に示す。   When the distance L from the closest end of the rear parked vehicle to the farthest end of the forward parked vehicle is less than or equal to twice the minimum space length D (step S430: NO), The parking frame positions are set to the frame positions 1 to 3, and are sequentially displayed from the frame position 1 according to the driver's request. As an example of the frame positions 1 to 3, a case of parallel parking is shown in FIG.

なお、図24において、3つの駐車枠11が分かり易いように紙面手前・奥行き方向にずらしてあるが、実際には、3つの駐車枠11は紙面手前・奥行き方向にずれていない。   In FIG. 24, the three parking frames 11 are shifted in the front and depth directions so as to be easy to understand, but in reality, the three parking frames 11 are not shifted in the front and depth directions.

ここで、枠位置1は、後方駐車車両の最近接端を基準に最小空間長Dの1/2を加算した位置であり、枠位置2は、後方駐車車両の最近接端を基準に最小空間長Dの1/2を減じた位置であり、枠位置3は、前方駐車車両の最遠方端を基準に最小空間長Dの1/2を加算した位置である。このように駐車枠の候補を設定し要求に応じて順次表示することで、ドライバの要求に速やかに合致した駐車枠を表示することが可能となる。この要求は、ドライバによる操作部116への操作によるものである。   Here, the frame position 1 is a position obtained by adding 1/2 of the minimum space length D with reference to the closest end of the rear parked vehicle, and the frame position 2 is the minimum space with respect to the closest end of the rear parked vehicle. The frame position 3 is a position obtained by adding 1/2 of the minimum space length D with reference to the farthest end of the front parked vehicle. By setting parking frame candidates in this manner and sequentially displaying them according to the request, it becomes possible to display a parking frame that quickly matches the driver's request. This request is due to an operation on the operation unit 116 by the driver.

次に、一旦表示したカメラ画像のドライバによる微調整に関するユーザーインターフェースについて述べる。   Next, a user interface related to fine adjustment by the driver of the camera image once displayed will be described.

図25に示すように、ある時間間隔毎に撮影したカメラ画像PictXが記憶部121に格納されている場合、ユーザーインターフェースとしての表示器117は、図26に示すようにカメラ画像の表示領域251とカメラ画像を1つ前後の各記憶部121から読み出してカメラ画像を再表示し直す選択スイッチ252を備えるようにする。   As shown in FIG. 25, when camera images PictX taken at certain time intervals are stored in the storage unit 121, the display unit 117 as a user interface includes a display area 251 of camera images as shown in FIG. A selection switch 252 is provided to read out the camera image from the preceding and subsequent storage units 121 and redisplay the camera image.

このようにすれば、例えば選択スイッチ252の右側スイッチを押せば時間的に1つ後のカメラ画像を、左側スイッチを押せば1つ前のカメラ画像を選択することが出来るため、表示領域のみを見るドライバとしては、カメラ114が選択スイッチ252を押した方向へ移動したように見える。このようにすれば、ドライバ自身が最も見易いカメラ画像位置を任意に選択することが出来るので、一層利便性が向上する。また、カメラ画像の保持の方法としては、図27に示すように、ある時間間隔毎に撮影したカメラ画像をパノラマ画像になるように一続きの画像として合成(結合)することも出来る。この場合は、選択スイッチ252が押されることにより、合成したパノラマ画像から切り出して表示するためのフレーム枠261を左右に一定量動かすことにより、前記の方法と同じような効果を得ることが出来る。   In this way, for example, if the right switch of the selection switch 252 is pressed, the next camera image in time can be selected, and if the left switch is pressed, the previous camera image can be selected. As a viewing driver, it appears that the camera 114 has moved in the direction in which the selection switch 252 is pressed. In this way, it is possible to arbitrarily select the camera image position that is most easily seen by the driver itself, thereby further improving convenience. As a method for holding camera images, as shown in FIG. 27, camera images taken at certain time intervals can be combined (combined) as a series of images so as to become panoramic images. In this case, when the selection switch 252 is pressed, the same effect as the above method can be obtained by moving the frame frame 261 for cutting out and displaying from the synthesized panoramic image by a certain amount to the left and right.

また、カメラ画像に対しては、図28に示すように、測距センサ113で測定した距離情報を、自車位置を基準として点描17(図中黒丸で示す)にて重畳表示する。   In addition, as shown in FIG. 28, the distance information measured by the distance measuring sensor 113 is superimposed and displayed on the camera image as a stippling 17 (indicated by a black circle in the figure) with the vehicle position as a reference.

すなわち、点描17として障害物の外縁をカメラ画像(駐車スペースとしての映像)に対して重畳表示することにより、障害物の位置がより明確になるため、駐車枠11の位置をドライバが調整する際に操作をし易くするメリットがある。   That is, when the driver adjusts the position of the parking frame 11 because the position of the obstacle becomes clearer by displaying the outer edge of the obstacle superimposed on the camera image (video as a parking space) as the stippling 17. There is a merit that makes it easy to operate.

また、これまではカメラ画像に対して駐車枠の設定をするように表示することを述べてきたが、図29に示すように、上面図(2D図)上に、測距センサ113で測定した距離情報の点描17と、駐車枠11のみとが表示される模式図(仮想図)を表示する手法もある。   In addition, it has been described so far that the camera image is displayed so as to set the parking frame, but as shown in FIG. 29, it is measured by the distance measuring sensor 113 on the top view (2D diagram). There is also a method of displaying a schematic diagram (virtual diagram) in which the point information 17 of the distance information and only the parking frame 11 are displayed.

すなわち、障害物の外縁を示す表示に駐車枠11を重畳表示する。このように表示すると、ドライバは既駐車車両などの障害物の位置関係と、駐車枠の関係が極めて良好に理解する事が出来るので、駐車枠11の位置をドライバが調整する際の操作をし易くするメリットがある。   That is, the parking frame 11 is displayed in a superimposed manner on the display indicating the outer edge of the obstacle. When displayed in this way, the driver can understand the positional relationship of obstacles such as parked vehicles and the relationship between the parking frames very well, so the driver can perform operations when adjusting the position of the parking frame 11. There is a merit to make it easier.

また、図30に示すように、カメラ画像を鳥瞰図に変換して、この変換された鳥瞰画像に、距離情報(障害物の外縁)および駐車枠121〜122を、重畳すると、実際の既駐車車両や縁石などの障害物と距離情報を示した点描17との関係が明確になり、ドライバは点描17の意味する障害物を理解した上で駐車枠121などの調整が出来るため、ドライバが調整する際の操作をし易くするメリットがある。また、通常のカメラ画像よりも、鳥瞰図変換した上面図の方が、位置関係は正しく読み易いメリットがある。   Further, as shown in FIG. 30, when a camera image is converted into a bird's-eye view, and distance information (outer edge of an obstacle) and parking frames 121 to 122 are superimposed on the converted bird's-eye view image, an actual parked vehicle Since the relationship between the obstacle such as the curb and the stippling 17 indicating the distance information is clarified and the driver can adjust the parking frame 121 and the like after understanding the obstacle meaning the stippling 17, the driver adjusts. There is a merit to make the operation easier. Further, the top view converted from the bird's eye view has an advantage that the positional relationship is easy to read correctly than the normal camera image.

また、図示はしないが、図30から距離情報の点描17を削除した表示で、駐車枠を設定するようにしても良い。   Although not shown, the parking frame may be set with a display in which the stippling 17 of the distance information is deleted from FIG.

なお、図31、図32に示すように、カメラ画像に重畳して垂直及び水平の補助線19、120を表示すると、既駐車車両12、13や縁石14などの障害物と駐車枠11との位置関係が明確になり、ドライバが調整する際の操作をし易くするメリットがある。   As shown in FIGS. 31 and 32, when the vertical and horizontal auxiliary lines 19 and 120 are displayed superimposed on the camera image, obstacles such as the parked vehicles 12 and 13 and the curb 14 and the parking frame 11 are displayed. The positional relationship is clarified, and there is an advantage that the driver can easily operate when adjusting.

以下、上述の実施形態と請求項との対応関係について説明すると、表示器117が表示手段に相当し、処理ユニット111が制御手段に相当し、カメラ114がカメラ手段に相当し、距測センサ113が計測手段に相当する。そして、舵角センサ115および車速センサ112が位置検出手段を構成する。   Hereinafter, the correspondence between the above-described embodiment and the claims will be described. The display device 117 corresponds to the display unit, the processing unit 111 corresponds to the control unit, the camera 114 corresponds to the camera unit, and the distance sensor 113. Corresponds to the measuring means. The rudder angle sensor 115 and the vehicle speed sensor 112 constitute position detecting means.

本発明の一実施形態に係る駐車支援装置の概略作動を示す模式図である。It is a schematic diagram which shows schematic operation | movement of the parking assistance apparatus which concerns on one Embodiment of this invention. 上述の一実施形態に係る駐車支援装置の概略作動を示す模式図である。It is a schematic diagram which shows schematic operation | movement of the parking assistance apparatus which concerns on one Embodiment mentioned above. 上述の一実施形態に係る駐車支援装置の概略作動を示す模式図である。It is a schematic diagram which shows schematic operation | movement of the parking assistance apparatus which concerns on one Embodiment mentioned above. 駐車支援装置の問題点を説明するための図である。It is a figure for demonstrating the problem of a parking assistance apparatus. 駐車支援装置の問題点を説明するための図である。It is a figure for demonstrating the problem of a parking assistance apparatus. 上述の一実施形態に係る駐車支援装置による駐車スペースとしての映像を示す図である。It is a figure which shows the image | video as a parking space by the parking assistance apparatus which concerns on one above-mentioned embodiment. 上述の一実施形態に係る駐車支援装置の概略作動を示す模式図である。It is a schematic diagram which shows schematic operation | movement of the parking assistance apparatus which concerns on one Embodiment mentioned above. 上述の一実施形態に係る駐車支援装置の概略作動を示す模式図である。It is a schematic diagram which shows schematic operation | movement of the parking assistance apparatus which concerns on one Embodiment mentioned above. 駐車支援装置の問題点を説明するための図である。It is a figure for demonstrating the problem of a parking assistance apparatus. 上述の一実施形態に係る駐車支援装置の概略作動を示す模式図である。It is a schematic diagram which shows schematic operation | movement of the parking assistance apparatus which concerns on one Embodiment mentioned above. 上述の一実施形態に係る駐車支援装置の構成を示すブロック図である。It is a block diagram which shows the structure of the parking assistance apparatus which concerns on one above-mentioned embodiment. 上述の一実施形態に係る駐車支援装置の処理ユニットの構成を示すブロック図である。It is a block diagram which shows the structure of the processing unit of the parking assistance apparatus which concerns on one above-mentioned embodiment. 上述の一実施形態に係る駐車支援装置の処理ユニットの制御処理の一部を示すフローチャートである。It is a flowchart which shows a part of control process of the process unit of the parking assistance apparatus which concerns on one above-mentioned embodiment. 上述の一実施形態に係る駐車支援装置の処理ユニットの制御処理の一部を示すフローチャートである。It is a flowchart which shows a part of control process of the process unit of the parking assistance apparatus which concerns on one above-mentioned embodiment. 上述の一実施形態に係る駐車支援装置の処理ユニットの制御処理の一部を示すフローチャートである。It is a flowchart which shows a part of control process of the process unit of the parking assistance apparatus which concerns on one above-mentioned embodiment. 上述の一実施形態に係る駐車支援装置の処理ユニットの制御処理を説明するための図である。It is a figure for demonstrating the control processing of the process unit of the parking assistance apparatus which concerns on one above-mentioned embodiment. 上述の一実施形態に係る駐車支援装置の処理ユニットの制御処理を説明するための図である。It is a figure for demonstrating the control processing of the process unit of the parking assistance apparatus which concerns on one above-mentioned embodiment. 上述の一実施形態に係る駐車支援装置の処理ユニットの制御処理を説明するための図である。It is a figure for demonstrating the control processing of the processing unit of the parking assistance apparatus which concerns on one above-mentioned embodiment. 上述の一実施形態に係る駐車支援装置の処理ユニットの制御処理を説明するための図である。It is a figure for demonstrating the control processing of the process unit of the parking assistance apparatus which concerns on one above-mentioned embodiment. 上述の一実施形態に係る駐車支援装置の処理ユニットの制御処理の一部を示すフローチャートである。It is a flowchart which shows a part of control process of the process unit of the parking assistance apparatus which concerns on one above-mentioned embodiment. 上述の一実施形態に係る駐車支援装置の処理ユニットの制御処理を説明するための図である。It is a figure for demonstrating the control processing of the process unit of the parking assistance apparatus which concerns on one above-mentioned embodiment. 上述の一実施形態に係る駐車支援装置の処理ユニットの制御処理の一部を示すフローチャートである。It is a flowchart which shows a part of control process of the process unit of the parking assistance apparatus which concerns on one above-mentioned embodiment. 上述の一実施形態に係る駐車支援装置の処理ユニットの制御処理を説明するための図である。It is a figure for demonstrating the control processing of the process unit of the parking assistance apparatus which concerns on one above-mentioned embodiment. 上述の一実施形態に係る駐車支援装置の処理ユニットの制御処理を説明するための図である。It is a figure for demonstrating the control processing of the processing unit of the parking assistance apparatus which concerns on one above-mentioned embodiment. 上述の一実施形態に係る駐車支援装置の処理ユニットの制御処理を説明するための図である。It is a figure for demonstrating the control processing of the process unit of the parking assistance apparatus which concerns on one above-mentioned embodiment. 上述の一実施形態に係る駐車支援装置の処理ユニットの制御処理を説明するための図である。It is a figure for demonstrating the control processing of the processing unit of the parking assistance apparatus which concerns on one above-mentioned embodiment. 上述の一実施形態に係る駐車支援装置の処理ユニットの制御処理を説明するための図である。It is a figure for demonstrating the control processing of the process unit of the parking assistance apparatus which concerns on one above-mentioned embodiment. 上述の一実施形態に係る駐車支援装置の処理ユニットの制御処理を説明するための図である。It is a figure for demonstrating the control processing of the process unit of the parking assistance apparatus which concerns on one above-mentioned embodiment. 上述の一実施形態に係る駐車支援装置の処理ユニットの制御処理を説明するための図である。It is a figure for demonstrating the control processing of the process unit of the parking assistance apparatus which concerns on one above-mentioned embodiment. 上述の一実施形態に係る駐車支援装置の処理ユニットの制御処理を説明するための図である。It is a figure for demonstrating the control processing of the process unit of the parking assistance apparatus which concerns on one above-mentioned embodiment. 上述の一実施形態に係る駐車支援装置の処理ユニットの制御処理を説明するための図である。It is a figure for demonstrating the control processing of the process unit of the parking assistance apparatus which concerns on one above-mentioned embodiment. 上述の一実施形態に係る駐車支援装置の処理ユニットの制御処理を説明するための図である。It is a figure for demonstrating the control processing of the processing unit of the parking assistance apparatus which concerns on one above-mentioned embodiment.

符号の説明Explanation of symbols

12、13…既駐車車両、111…処理ユニット、110…自車、
113…測距センサ。
12, 13 ... parked vehicles, 111 ... processing unit, 110 ... own vehicle,
113 ... Distance measuring sensor.

Claims (3)

2台の既駐車車両の間の駐車スペースとしての映像に駐車枠(11)を重畳表示させるように表示手段(117)を制御する制御手段(111)を備える駐車支援装置であって、
前記2台の既駐車車両の付近を当該自車が移動する際に、前記2台の既駐車車両側を繰り返し撮影するカメラ手段(114)と、
前記2台の既駐車車両の付近を当該自車が移動する際に、前記2台の既駐車車両側の障害物までの距離情報を繰り返し計測する計測手段(113)と、
前記計測手段による前記距離情報の測定毎に自車位置を検出する位置検出手段(115、112)と、を備えており、
前記制御手段は、前記計測された各距離情報および前記検出された各自車位置に応じて、前記駐車スペースの中央部を当該自車が通過したタイミングを推定し、さらに前記カメラ手段により撮影された映像のうち、前記推定されたタイミングにて撮影された映像を抽出して、この抽出された映像を前記駐車スペースとして前記表示手段に表示させることを特徴とする駐車支援装置。
A parking assistance device comprising a control means (111) for controlling the display means (117) so as to superimpose and display a parking frame (11) on a video as a parking space between two parked vehicles,
Camera means (114) for repeatedly photographing the two parked vehicles when the vehicle moves in the vicinity of the two parked vehicles;
Measuring means (113) for repeatedly measuring distance information to an obstacle on the two parked vehicles when the vehicle moves in the vicinity of the two parked vehicles;
And position detecting means (115, 112) for detecting the position of the vehicle every time the distance information is measured by the measuring means,
The control means estimates the timing at which the vehicle has passed through the center of the parking space according to the measured distance information and the detected vehicle position, and is further photographed by the camera means. A parking assistance device, wherein a video photographed at the estimated timing is extracted from the video, and the extracted video is displayed on the display unit as the parking space.
前記制御手段は、前記計測された各距離情報および前記検出された各自車位置に応じて、前記障害物の外縁を推定し、さらに前記表示手段を制御して前記外縁を前記駐車スペースとしての映像に重畳表示させることを特徴とする請求項1に記載の駐車支援装置。   The control means estimates the outer edge of the obstacle according to the measured distance information and the detected vehicle position, and further controls the display means to display the outer edge as the parking space. The parking support apparatus according to claim 1, wherein the parking support apparatus is displayed in a superimposed manner. 前記制御手段は、前記駐車スペースとしての映像を鳥瞰図に変換して前記表示手段に表示させることを特徴とする請求項1又は2に記載の駐車支援装置。   The parking support device according to claim 1, wherein the control unit converts the image of the parking space into a bird's eye view and displays the image on the display unit.
JP2004157739A 2004-05-27 2004-05-27 Parking assistance device Expired - Fee Related JP4321357B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004157739A JP4321357B2 (en) 2004-05-27 2004-05-27 Parking assistance device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004157739A JP4321357B2 (en) 2004-05-27 2004-05-27 Parking assistance device

Publications (2)

Publication Number Publication Date
JP2005335568A JP2005335568A (en) 2005-12-08
JP4321357B2 true JP4321357B2 (en) 2009-08-26

Family

ID=35489603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004157739A Expired - Fee Related JP4321357B2 (en) 2004-05-27 2004-05-27 Parking assistance device

Country Status (1)

Country Link
JP (1) JP4321357B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10737724B2 (en) 2017-10-13 2020-08-11 Hyundai Motor Company Device and method for displaying target parking space of vehicle
EP4030751A4 (en) * 2020-07-27 2022-11-23 Huawei Technologies Co., Ltd. Method, device, and system for video stitching

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4682809B2 (en) * 2005-11-04 2011-05-11 株式会社デンソー Parking assistance system
KR100716324B1 (en) * 2005-12-15 2007-05-11 현대자동차주식회사 Method for parking set in auto parking system
JP4432929B2 (en) * 2006-04-25 2010-03-17 トヨタ自動車株式会社 Parking assistance device and parking assistance method
JP4613884B2 (en) * 2006-06-14 2011-01-19 トヨタ自動車株式会社 Parking assistance device
JP4386083B2 (en) 2007-02-27 2009-12-16 トヨタ自動車株式会社 Parking assistance device
DE102007028517A1 (en) * 2007-06-21 2008-12-24 Robert Bosch Gmbh Control device and method for displaying a parking space
JPWO2009060663A1 (en) * 2007-11-08 2011-03-17 ボッシュ株式会社 Parking assistance device
JP4992696B2 (en) * 2007-12-14 2012-08-08 日産自動車株式会社 Parking support apparatus and method
JP4530060B2 (en) * 2008-02-19 2010-08-25 トヨタ自動車株式会社 Parking support apparatus and method
WO2010140458A1 (en) * 2009-06-03 2010-12-09 ボッシュ株式会社 Parking assist apparatus
JP5511431B2 (en) * 2010-02-22 2014-06-04 本田技研工業株式会社 Parking assistance device
JP5617643B2 (en) * 2011-01-07 2014-11-05 株式会社日本自動車部品総合研究所 Parking space detection device
JP2013043505A (en) * 2011-08-23 2013-03-04 Nissan Motor Co Ltd Parking assist apparatus and parking assist method
DE102012201051A1 (en) * 2012-01-25 2013-07-25 Robert Bosch Gmbh Procedure for driving assistance and driver assistance system
JP5786821B2 (en) * 2012-08-09 2015-09-30 株式会社デンソー Parking assistance device
JP6110349B2 (en) 2014-09-12 2017-04-05 アイシン精機株式会社 Parking assistance device
JP2017159687A (en) * 2016-03-07 2017-09-14 三菱重工業株式会社 Parking region display system and automatic parking system using the same
JPWO2019160102A1 (en) * 2018-02-15 2021-02-04 パナソニックIpマネジメント株式会社 Measuring device, measuring method, measuring program, recording medium on which the measuring program is recorded, and vehicle control device
CN111405196B (en) * 2019-12-31 2022-08-02 智慧互通科技股份有限公司 Vehicle management method and system based on video splicing

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10737724B2 (en) 2017-10-13 2020-08-11 Hyundai Motor Company Device and method for displaying target parking space of vehicle
EP4030751A4 (en) * 2020-07-27 2022-11-23 Huawei Technologies Co., Ltd. Method, device, and system for video stitching

Also Published As

Publication number Publication date
JP2005335568A (en) 2005-12-08

Similar Documents

Publication Publication Date Title
JP4321357B2 (en) Parking assistance device
CN108136987B (en) Parking space detection method and device
JP5743652B2 (en) Image display system, image generation apparatus, and image generation method
EP2055536A1 (en) Parking support device
JP4981566B2 (en) Driving support device and driving support method
US20070147664A1 (en) Driving assist method and driving assist apparatus
JP2009029203A (en) Driving support device
JP4848893B2 (en) Intersection information providing system and driving support system
KR20080109871A (en) Parking assistance device and parking assistance method
JP5471141B2 (en) Parking assistance device and parking assistance method
JP2012076483A (en) Parking support device
US11620834B2 (en) Periphery monitoring device
JP6366881B2 (en) Parking assistance device
JP4297045B2 (en) Display control apparatus and program for head-up display
JP2008279875A (en) Parking support device
WO2010134240A1 (en) Parking assistance device, parking assistance method, and parking assistance program
JP2009096347A (en) Parking support device
JP4797849B2 (en) Driving support image display system and in-vehicle device
US11643071B2 (en) Parking assistance device and parking assistance method
KR101305310B1 (en) Method for providing around view of vehicle
JP2007282098A (en) Image processing apparatus and image processing program
JP2009279949A (en) On-vehicle mirror control device, on-vehicle mirror system
JP2007331548A (en) Parking support device
JP5273068B2 (en) Vehicle periphery monitoring device
JP4857159B2 (en) Vehicle driving support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090512

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090525

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120612

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120612

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130612

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140612

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees