WO2011024220A1 - 駐車支援装置 - Google Patents

駐車支援装置 Download PDF

Info

Publication number
WO2011024220A1
WO2011024220A1 PCT/JP2009/004135 JP2009004135W WO2011024220A1 WO 2011024220 A1 WO2011024220 A1 WO 2011024220A1 JP 2009004135 W JP2009004135 W JP 2009004135W WO 2011024220 A1 WO2011024220 A1 WO 2011024220A1
Authority
WO
WIPO (PCT)
Prior art keywords
detection
data
distance
corner
unit
Prior art date
Application number
PCT/JP2009/004135
Other languages
English (en)
French (fr)
Inventor
井上悟
鈴木涼太郎
赤座光昭
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to CN200980161159.9A priority Critical patent/CN102483457B/zh
Priority to DE112009005165.0T priority patent/DE112009005165B4/de
Priority to JP2011528511A priority patent/JP5506803B2/ja
Priority to PCT/JP2009/004135 priority patent/WO2011024220A1/ja
Priority to US13/318,441 priority patent/US8686875B2/en
Publication of WO2011024220A1 publication Critical patent/WO2011024220A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9314Parking operations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93274Sensor installation details on the side of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/932Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles for parking operations
    • G01S2015/933Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles for parking operations for measuring the dimensions of the parking space when driving past
    • G01S2015/935Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles for parking operations for measuring the dimensions of the parking space when driving past for measuring the contour, e.g. a trajectory of measurement points, representing the boundary of the parking space
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/937Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles sensor installation details

Definitions

  • the present invention relates to a parking assistance device that measures a parking space for parallel parking or parallel parking and notifies the driver of whether or not the vehicle can be parked.
  • reflection data from a detection target is collected by irradiating a detection wave, parabolic approximation or elliptic approximation is performed on a point sequence of the reflection data, and this approximation data is subjected to rotation correction processing, so that a parked vehicle, etc.
  • the corner position of the obstacle is calculated (see, for example, Patent Document 1).
  • the rotation correction means that the movement of the sonar and the straight line connecting the sonar position and the reflection position increases as the ratio of the fluctuation amount of the detection distance between the sonar position and the reflection position of the detection wave to the movement amount of the sonar that irradiates the detection wave increases. This refers to correcting the reflection position so that the angle formed with the locus becomes smaller.
  • Patent Document 2 by using the fact that the ratio of the fluctuation amount of the detection distance to the movement amount of the sonar is substantially equal to the sine of the normal direction of the object plane, the rotation correction for each reflection position acquired in time series is performed. The angle is calculated and each reflection position is rotationally corrected. Among the reflection positions after the rotation correction, the position positioned on the outermost side with respect to the traveling direction of the sonar is estimated as the corner position of the obstacle.
  • the noise removal of the point sequence consisting of the reflection position is obtained by obtaining reflection data for n points that are continuous in time series, and each point is within the effective range set according to the moving distance of the vehicle from the reference point. The noise is determined based on whether the position is present.
  • the Nth reflection position is deleted if there is no data of the next (N + 1) th reflection position in a circle having a fixed distance centered on this position. Also in the method described in Patent Document 2, as the straight line portion of the obstacle becomes longer, the approximate curve cannot accurately approximate the actual corner, and the measurement accuracy of the parking space tends to deteriorate.
  • the present invention has been made to solve the above-described problems, and an object of the present invention is to obtain a parking assist device capable of accurately measuring a parking space based on the corner position of a detection target.
  • JP 2008-21039 A Japanese Patent No. 4123259
  • a parking assist device detects a wheel speed of a host vehicle and a distance sensor unit that irradiates a detection wave, receives a reflected wave of the detection wave from the detection object, and detects a distance from the detection object. While the vehicle is traveling on the side of the object to be detected and the side of the object to be detected, the outputs of the distance sensor unit and the wheel speed sensor unit are input, and the vehicle speed specified by the wheel speed sensor unit is identified. Based on the movement distance of the vehicle, sensor position data indicating a movement locus of the distance sensor unit accompanying the movement of the host vehicle is generated, and a detection point sequence in which the distance is detected by the distance sensor unit moving along the movement locus is indicated.
  • a data acquisition unit for acquiring detection point data, a data extraction unit for extracting detection point data corresponding to the corner portion of the detection target object from the detection point data obtained by the data acquisition unit, and a detection extracted by the data extraction unit Of point data Approximating the point sequence with a curve, determining the detection point of the noise component based on the approximated curve, removing the noise component from the detection point data, and the detection point data from which the noise component has been removed by the noise component removal unit
  • a reflection point estimation unit for estimating the reflection point of the detection wave at the corner of the corner, and a corner position determination unit for determining the position of the corner of the detection object based on the position of the reflection point estimated by the reflection point estimation unit; Based on the position of the corner determined by the corner position determination
  • the corner of the detection target object is included in the detection point data indicating the detection point sequence in which the distance from the detection target object is detected by the distance sensor unit while traveling on the side of the detection target object.
  • the detection point data corresponding to the part is extracted, and the extracted detection point data is subjected to data interpolation by removing noise components and approximating the curve of the detection point sequence.
  • the reflection point of the detection wave at the corner part is estimated, and the length of the parking space adjacent to the detection object based on the corner position obtained from the estimated position of the reflection point
  • the vehicle is measured to determine whether or not the vehicle can be parked. By doing in this way, there exists an effect that the parking space of the own vehicle can be measured accurately.
  • FIG. 7 is an enlarged view of a portion corresponding to FIG. It is a figure which shows an example of the data extraction by intersection determination with low-pass filter process data. It is a figure which shows an example of the data extraction by difference value determination with low-pass filter process data.
  • FIG. 6 is a flowchart illustrating a flow of a parking support operation by the parking support device according to the second embodiment. It is a figure for demonstrating the correction algorithm 1 of a corner position. It is a figure for demonstrating the correction algorithm 3 of a corner position. It is a figure for demonstrating the correction algorithm 4 and the correction algorithm 5 of a corner position. It is a figure for demonstrating the correction algorithm 6 of a corner position. It is a figure for demonstrating the correction algorithm 7 of a corner position. It is a figure for demonstrating the correction algorithm 8 of a corner position.
  • FIG. 1 is a diagram showing an aspect of parking assistance in the present invention.
  • a vehicle 1 is a vehicle equipped with a parking assistance device according to the present invention, and distance sensors (distance sensor units) 3 are provided on the left and right sides in front of the vehicle.
  • the parked vehicles (detection objects) 2a and 2b are parked on the side of the road.
  • the parking assist device according to the present invention is provided in a vehicle 1 and supports an operation of parallel parking the vehicle 1 between a parked vehicle 2a and a parked vehicle 2b.
  • a detection wave is emitted from the distance sensor 3 to detect the distance to the parked vehicles 2a and 2b entering the detection area 4 that is the reach range. To do.
  • the wheel speed is detected by a wheel speed sensor (not shown in FIG. 1) provided in the vehicle 1, and the traveling locus of the vehicle 1 is obtained based on the wheel speed data.
  • sensor position data indicating the movement trajectory of the distance sensor 3 that moves as the vehicle 1 travels, and detection that indicates a detection point sequence of distances detected by the distance sensor 3 that moves as the vehicle 1 travels.
  • the corner positions of the parked vehicles 2a and 2b are detected based on the point data. In the example of FIG. 1, the position of the corner (front B) ahead of the parked vehicle 2b is detected, and the position of the corner (rear A) behind the parked vehicle 2a is detected.
  • the parking space length between the parked vehicles 2a and 2b is determined based on these corner positions. This determination result is displayed or output to the driver of the vehicle 1 by a display monitor or an audio speaker provided in the vehicle 1 as the output device 10. Thus, the driver can recognize whether the parked vehicles 2a and 2b can be parked when the vehicles 1 are parked in parallel.
  • FIG. 2 is a diagram showing the configuration of the parking support apparatus according to the present invention.
  • an ECU (Electric Control Unit) 9 is connected to a distance sensor 3, a wheel speed sensor (wheel speed sensor unit) 6, a winker 7, a measurement start switch 8, and an output device 10. And various information for parking assistance is acquired.
  • information on the wheel speed sensor 6, the blinker 7, and the measurement start switch 8 is input to the ECU 9 via the CAN bus 23.
  • the distance sensor 3 is provided on the left and right of the vehicle 1 as shown in FIG. It is a sensor to detect. Examples of the detection wave include ultrasonic waves, laser light, and radio waves.
  • Wheel speed sensors 6 that collect wheel speed data are sensors that are provided on the left and right rear wheels of the vehicle 1 shown in FIG. 1 and detect the wheel speed of each wheel.
  • the wheel speed detected by the wheel speed sensor 6 is output to the ECU 19 via the CAN bus 23.
  • information on the winker 7 and the measurement start switch 8 information (direction instruction and parking space measurement start) obtained by the driving operation by the driver is transmitted to the ECU 9 via the CAN bus 23.
  • the driver operates the turn signal 7 to instruct on which side to park.
  • the driver operates the measurement start switch 8 to instruct the start of measurement of the parking space length on the side instructed by the winker 7.
  • the ECU9 functions as a calculation processing part of the parking assistance apparatus 5 which measures the parking space of the side instruct
  • the output device 10 is an output device that presents parking assistance information and the like to the driver, and includes a display monitor of an in-vehicle device, an audio speaker, and the like.
  • FIG. 3 is a block diagram showing the configuration of the parking assist apparatus according to Embodiment 1 of the present invention, and shows the functional configuration of the ECU of FIG.
  • the ECU 9 includes a data acquisition unit 11, a data extraction unit 12, a noise component removal unit 13, a data complementation unit 14, a reflection point estimation unit 15, a corner position determination unit 16, and a space length determination unit 17.
  • the CAN bus 23 is not shown.
  • the data acquisition unit 11 Based on the detection information of the distance sensor 3 and the wheel speed sensor 6, the data acquisition unit 11 detects detection point data detected by the distance sensor 3 and sensor position data indicating the sensor position along the movement path of the distance sensor 3. It is a component to generate.
  • the data extraction unit 12 is a component that extracts detection point data corresponding to the corner portion of the detection target object from the detection point data acquired by the data acquisition unit 11.
  • the noise component removal unit 13 is a component that performs a smoothing process by curve approximation on the detection point sequence extracted by the data extraction unit 12 and removes the noise component from the detection point data.
  • the data complementing unit 14 is a component that complements the detection point data by approximating the detection point sequence from which the noise component has been removed by the noise component removal unit 13 by curve approximation.
  • the reflection point estimation unit 15 is a component that estimates the reflection point of the detection wave from the detection point data and sensor position data supplemented by the data complementation unit 14.
  • the reflection point is a reflection position of the ultrasonic wave on the detection target.
  • the corner position determination unit 16 is a configuration unit that determines the corner position of the detection target object from the reflection point data estimated by the reflection point estimation unit 15.
  • the space length determination unit 17 is a configuration unit that measures the parking space based on the coordinates of the corner position determined by the corner position determination unit 16 and determines whether or not the host vehicle can be parked.
  • the operation order of the turn signal 7 and the measurement start switch 8 is not limited.
  • FIG. 4 is a flowchart illustrating a flow of a parking support operation performed by the parking support apparatus according to the first embodiment.
  • the distance sensor 3 will be described as an ultrasonic sensor.
  • the data acquisition unit 11 activates the distance sensor 3 on the left side of the vehicle 1 in accordance with the direction instruction of the winker 7.
  • the distance sensor 3 measures the distance from the parked vehicle 2 based on the time from irradiating the parked vehicle 2 with ultrasonic waves and receiving the reflected wave from the parked vehicle 2.
  • the data acquisition unit 11 collects and accumulates wheel speed data according to the distance detection of the distance sensor 3, and based on the accumulated wheel speed data, determines the sensor position of the distance sensor 3 as the vehicle 1 travels. measure.
  • the data acquisition unit 11 collects detection point data and sensor position data.
  • the detection point data is data in which detection point sequences are arranged along the outer shape of the vehicle 2 as shown in FIG.
  • the sensor position data for example, the position of the distance sensor 3 along the traveling locus of the vehicle 1 traveling in the direction of the arrow in FIG. 5 is specified. The process so far corresponds to step ST1.
  • the data acquisition unit 11 may operate as follows. First, when the distance sensor 3 first detects the distance from the vehicle 2 after the measurement start switch 8 is turned on, the data acquisition unit 11 starts to accumulate the wheel speed data input from the wheel speed sensor 6. . After that, the data acquisition unit 11 stops the accumulation of the wheel speed data when the distance is not detected by the distance sensor 3 while the vehicle 1 travels a certain distance or more. The wheel speed data is accumulated for each parked vehicle by resuming the accumulation when the distance is detected. In this manner, by starting accumulation from the wheel speed data at the time when the detection point data is first detected for each parked vehicle, the position coordinates of the distance sensor 3 can be obtained using the latest wheel speed data as the detection points are acquired. Update. Thereby, it can suppress that the excess wheel speed data of the parked vehicle undetected area which does not respond
  • the data extraction unit 12 corresponds to the data corresponding to the corner portion of the front B of the parked vehicle 2b shown in FIG. 1 and the corner portion of the rear A of the parked vehicle 2a from the detection point data obtained by the data acquisition unit 11. Data is extracted (step ST2, step ST2a).
  • the noise component removal unit 13 When the detection point data corresponding to the corner portion of the front B extracted by the data extraction unit 12 is input, the noise component removal unit 13 generates a first approximate curve that approximates the detection point sequence of the detection point data. Then, detection points that deviate from the approximated curve by a certain distance or more are deleted as noise components (step ST3). Similarly, when the detection point data corresponding to the corner portion of the rear A is input, the noise component removal unit 13 generates a first approximation curve that approximates the detection point sequence of the detection point data, and approximates the curve. Detection points that are more than a certain distance from the detection point are deleted as noise components (step ST3a).
  • the data complementation unit 14 approximates the detection point sequence of this detection point data.
  • a curve is generated to complement the detected point data (step ST4).
  • the data complementing unit 14 approximates the detection point sequence of the detection point data.
  • a second approximate curve is generated and the detected point data is complemented (step ST4a).
  • the data extraction method of the data extraction unit 12 will be exemplified, and details of the above-described steps ST2 to ST4 and steps ST2a to ST4a will be described.
  • Examples of a method for extracting detection point data corresponding to a corner portion include the following (1) to (3).
  • FIG. 6 is a diagram illustrating an example of data extraction based on area ratio determination.
  • the xy coordinate system in FIG. 6A is parallel to the ground, with the traveling direction of the vehicle 1 (own vehicle) traveling on the side of the parked vehicle 2 as the y coordinate axis and the distance detection direction by the distance sensor 3 as the x coordinate axis. It is a two-dimensional orthogonal coordinate system.
  • each detection point D1 and detection points sequentially detected thereafter are connected by diagonal lines with the detection point D1 obtained first as a reference. Assume a rectangle to be a vertex.
  • the data extraction unit 12 connects the detection points adjacent between the vertex corresponding to the detection point D1 to the vertex corresponding to the latest detection point with a diagonal line, and uses this diagonal line as a boundary.
  • the ratio (S1 / S2) of the area S1 on the parked vehicle 2 side (inner side) and the area S2 on the vehicle 1 side (outer side), which is the divided rectangular area, is calculated and compared with a predetermined threshold value K1.
  • the distance sensor 3 when the distance sensor 3 is operated while the vehicle 1 travels beside the parked vehicles 2b and 2a, the distance to the rear corner of the parked vehicle 2b is first detected, and then the parked vehicle. The distance between the side surface of 2b and the corner portion of the front B of the parked vehicle 2b is detected. Thereafter, when the vehicle 1 travels between the parked vehicle 2b and the parked vehicle 2a, no reflected wave is obtained and the distance is not detected. Further, when the vehicle 1 travels to the parked vehicle 2a, the rear A of the parked vehicle 2a The distance from the corner portion is detected, and then the distance from the side surface of the parked vehicle 2a and the front corner portion of the parked vehicle 2a is detected.
  • the data extraction unit 12 subsequently sets the area ratio S1 / S2 to the threshold value K1 retroactively from the detection point data detected until the detection area 4 of the distance sensor 3 reaches the parking interval between the parked vehicle 2b and the parked vehicle 2a.
  • the section up to the above is extracted as detection point data corresponding to the corner portion of the front B (step ST2).
  • the processing of the corner portion of the front B is not illustrated, and the corner portion of the rear A is illustrated and described.
  • the data extraction unit 12 corresponds to the detection point detected until the area ratio S1 / S2 exceeds the threshold value K1 from the detection point first detected at the corner portion of the rear A to the corner portion of the rear A.
  • the detected point data is extracted (step ST2a). In FIG.
  • the detection point sequence from the detection point D1 detected first to the detection point D9 is the rear. It is extracted as detection point data of the corner portion of A.
  • the traveling direction of the host vehicle 1 traveling on the side of the parked vehicle 2 is the y coordinate axis, and the coordinate axis orthogonal to the traveling direction is a two-dimensional plane parallel to the ground.
  • the detection point sequence is arranged in a straight line on the side surface of the parked vehicle 2, and the detection point sequence is arranged in a curved line in the corner portion, and the area ratio S1 / S2 between the side surface of the parked vehicle 2 and the corner portion
  • the detection point data corresponding to the corner portion is extracted by utilizing the change in the size of.
  • a value obtained by multiplying the standard deviation ⁇ of the difference (Xci ⁇ Xi) in the distance detection direction (x-axis direction) by a constant coefficient j is used as a threshold value, and detection points exceeding this threshold value are deleted.
  • the detection point is not deleted.
  • the standard deviation ⁇ of the difference in the distance detection direction (x-axis direction) by the distance sensor 3 between the cubic approximate curve and the detection point is multiplied by a constant coefficient j, and a value obtained by adding the constant coefficient k is a threshold value.
  • the detection points that exceed the above threshold may be deleted with the coefficients j and k as eigenvalues inside and outside the cubic approximation curve. In this way, by giving a weight to the noise removal threshold on the inside and outside of the cubic approximate curve, it is possible to improve the estimation accuracy of the outermost position of the outer shape of the detection target (parked vehicle 2). For example, it is effective when (inner coefficient)> (outer coefficient) and a detection point having a hollow shape such as a tire house is removed.
  • a second approximate curve as shown in FIG. 6C is generated. As a result, the detected point data is complemented with the second approximate curve.
  • FIG. 7 is a diagram illustrating an example of data extraction by intersection determination with low-pass filter processing data.
  • the traveling direction of the vehicle 1 (own vehicle) traveling on the side of the parked vehicle 2 is the y coordinate axis
  • the distance detection direction by the distance sensor 3 is the x coordinate axis. Is a two-dimensional orthogonal coordinate system parallel to the ground.
  • the low-pass filter processing data is curve data that approximates the detection point sequence corresponding to the corner portion, and is obtained by low-pass filtering the offset value LPFinit and the detection point data using the following equations (1) and (2). .
  • LPFxi LPFxi-1 + (xi-LPFx-i) ⁇ ⁇ (1)
  • LPFyi yi (2)
  • the data extraction unit 12 compares the approximate curve of the low-pass filter processing data with the detection point sequence.
  • the data extraction unit 12 may detect this detection point if there is a detection point that intersects the approximate curve of the low-pass filter processing data by the above comparison.
  • the number of detection points on the side surface of the vehicle that has been sequentially detected in the past reaches a predetermined number or more, a detection point sequence on the corner end side is extracted based on the detection point position (step ST2).
  • the data extraction unit 12 when extracting the detection point data corresponding to the corner portion of the rear A of the parked vehicle 2a, the data extraction unit 12 causes the parked vehicle 2a to detect the detection point A1 that intersects the approximate curve of the low-pass filter processing data. A detection point sequence from the detection point detected first to the detection point A1 is extracted (step ST2a).
  • the noise component removal unit 13 applies a cubic approximation curve to these detection point groups by the least square method as described above. By identifying the parameters, a first approximate curve is generated as shown in FIG. Subsequently, the noise component removal unit 13 determines that a detection point having a variation within a predetermined range in the distance detection direction (x-axis direction) from the cubic approximate curve is a noise component and deletes it (step ST3a).
  • the mode of noise component removal is the same as (A) Data extraction algorithm 1.
  • the data complementing unit 14 similarly identifies the parameters of the cubic approximation curve by the least square method for the detection point sequence remaining after the processing by the noise component removing unit 13, so that the data as shown in FIG. A second approximate curve is generated. As a result, the detected point data is complemented with the second approximate curve.
  • FIG. 8 is a diagram illustrating an example of data extraction based on difference value determination with low-pass filter processing data.
  • the traveling direction of the vehicle 1 (own vehicle) traveling on the side of the parked vehicle 2 is the y coordinate axis
  • the distance detection direction by the distance sensor 3 is the x coordinate axis. Is a two-dimensional orthogonal coordinate system parallel to the ground.
  • detection points corresponding to the corner portions are extracted with reference to detection points that intersect the approximate curve of the low-pass filter processing data.
  • the distance detection direction x A detection point at which the difference between the coordinate values in the axial direction is less than a predetermined threshold is used as a reference.
  • the data extraction unit 12 calculates the difference between the coordinate values in the distance detection direction (x-axis direction) between the low-pass filter processing data and the detection point. And a predetermined threshold value are compared.
  • the data extraction unit 12 detects in advance the detection point if there is a detection point whose difference value is less than a predetermined threshold value in the comparison.
  • the number of detected points reaches a predetermined number or more, a group of detected points on the corner end side from that point is extracted (step ST2).
  • the data extraction unit 12 when extracting the detection point data corresponding to the corner portion of the rear A of the parked vehicle 2a, the data extraction unit 12 is first detected by the parked vehicle 2a if there is a detection point A2 whose difference value is less than the threshold value. A detection point sequence from the detection point to the detection point A2 is extracted (step ST2a).
  • the noise component removal unit 13 applies a cubic approximation curve to these detection point sequences by the least square method as described above. By identifying the parameters, a first approximate curve is generated as shown in FIG. Subsequently, the noise component removal unit 13 deletes, as noise, detection points that vary within a predetermined range in the distance detection direction (x-axis direction) from the cubic approximate curve (step ST3a).
  • the mode of noise component removal is the same as (A) Data extraction algorithm 1.
  • the data complementing unit 14 identifies the parameters of the cubic approximation curve by the least-squares method for the detection point sequence remaining after the processing by the noise component removing unit 13, so that the data as shown in FIG. A second approximate curve is generated. As a result, the detected point data is complemented with the second approximate curve.
  • the reflection point estimation unit 15 estimates the coordinates of the reflection point at the corner by performing a two-circle intersection process using the detection point data supplemented by the data complementation unit 14 and the sensor position data (step ST5, Step ST5a).
  • the two-circle intersection process will be described in detail.
  • the distance sensor 3 (ultrasonic sensor) forms a detection area 4 as shown in FIG. 1 by irradiating a search signal (ultrasonic wave) with a certain extent to the central axis of the irradiation port. That is, the distance sensor 3 receives a reflected wave (ultrasonic echo signal) from the detection target in a reception area having a certain viewing angle. For this reason, the case where the reflection point reflecting the detection wave does not correspond to the detection point detecting the distance occurs.
  • FIG. 9 is a diagram for explaining a case where the reflection point does not correspond to the detection point.
  • the detection object 2a is a small obstacle with a small curvature such as a cone or a pole
  • the detection wave one-dot broken line
  • the reflected wave solid arrow
  • the distance sensor 3 at each position of the travel locus 20 measures the distance between the detection wave irradiation port and the detection point 21a based on the time from when the detection wave is irradiated until the reflected wave is received. For this reason, as shown in FIG. 9B, when the detection points 21 are widely distributed in the detection point locus 21 along the traveling direction of the host vehicle, the reflection points 18 of the detection target 2a do not coincide with the detection points 21a. There is.
  • the position coordinates of the reflection point are estimated from the detection points detected by the distance sensor 3 at each position in the traveling locus 20 by the two-circle intersection process using the detection point data and the sensor position data.
  • FIG. 10 is a diagram illustrating an example of the two-circle intersection process.
  • the reflection point estimation unit 15 inputs detection point data corresponding to the corner portion as shown in FIG. 10A from the data complementing unit 14 and the wheel speed accumulated according to the distance detection by the distance sensor 3.
  • Sensor position data indicating the position of the distance sensor 3 is obtained from the data.
  • the detection points may be obtained densely or sparsely. In this case, since the positions of the detection point and the distance sensor vary in the traveling direction of the vehicle 1, subsequent processing becomes complicated.
  • the data complementing unit 14 detects the detection point position of the detection point data and the sensor of the sensor position data so that the distance L is constant in the traveling direction of the vehicle 1 with the detection point D1 at the end as a reference. Convert position. At this time, the distance between the detection point and the distance sensor 3 is maintained. By doing in this way, it becomes possible to utilize detection point data and sensor position data regardless of the running speed of the vehicle 1.
  • the reflection point estimation unit 15 uses the detection point data and the sensor position data converted by the data complementing unit 14 from the sensor position to the detection point around each sensor position.
  • Each circle with a radius of is assumed.
  • the circular arc on the side of the parked vehicle 2 corresponds to the detection area of the distance sensor 3.
  • the reflection point estimation unit 15 is an intersection C1 of arcs passing through adjacent detection points (Dn and Dn + 1 or Dn + i; n is an integer of 1 or more and i is an integer of 2 or more).
  • the position coordinates are calculated with .about.C5 as reflection points. Thereby, the approximate coordinates of the actual reflection point can be estimated.
  • the corner position determination unit 16 determines the corner position of the parked vehicle 2 from the reflection point position data estimated by the reflection point estimation unit 15. In FIG. 10, the reflection point C1 is determined as the corner position.
  • the space length determination unit 17 determines the parking space length based on the coordinates of the corner position determined by the corner position determination unit 16 (step ST6). This determination result is output from the space length determination unit 17 to the output device 10, and whether or not parking is possible is displayed or output to the driver of the vehicle 1 via at least one of a display monitor or an audio speaker constituting the output device 10. (Step ST7).
  • FIG. 11 is a diagram illustrating an example of the parking space determination process, and illustrates a case where the vehicles 1 are parked in parallel between the parked vehicles 2a and 2b.
  • the data acquisition unit 11 is based on the position of the vehicle (vehicle 1) at the time of system activation (when the measurement start switch 8 is turned on) and distance information from the vehicle position to the detection point.
  • the traveling direction of the vehicle 1 traveling on the side of the parked vehicle 2 as the y coordinate axis, and the distance detection direction by the distance sensor 3 as the x coordinate axis are acquired.
  • the reflection point estimation unit 15 calculates the coordinates of the corner positions of the parked vehicles 2a and 2b from the coordinates of the detection point sequence in the coordinate system shown in FIG. Accordingly, the corner position of the rear Ab of the parked vehicle 2b, the corner position (X1, Y1) of the front Bb of the parked vehicle 2b, the corner position (X2, Y2) of the rear Aa of the parked vehicle 2a, and the front Ba of the parked vehicle 2a. Find the corner position.
  • the space length determination unit 17 assumes that the parked vehicles 2a and 2b are parked on the road (in the y-axis direction), the corner position (X1, Y1) of the front Bb of the parked vehicle 2b, and the rear Aa of the parked vehicle 2a.
  • the parking space length between the parked vehicle 2b and the parked vehicle 2b is calculated from the difference (Y2-Y1) using the corner positions (X2, Y2).
  • FIG. 12 is a diagram for explaining a deviation between the own vehicle position calculated value and the actual vehicle position due to an accumulation error of the own vehicle position calculated value.
  • the measurement start switch 8 is turned on at a position away from the parked vehicles 2a and 2b to start the system, and a coordinate system with the vehicle position at this time as the origin is assumed. In this case, since the vehicle 1 travels a long distance before the distance sensor 3 detects the distance, the vehicle 1 is easily influenced by an accumulation error of the own vehicle position calculation value.
  • the position indicated by the solid line is the actual position of the vehicle 1, but an incorrect position indicated by the broken line is calculated due to the accumulation of the calculation error of the vehicle position and the calculation error of the steering angle. Yes.
  • the influence of the error that has occurred in the calculated value of the vehicle position extends to the coordinates of the detection point positions and corner positions of the parked vehicles 2a and 2b
  • the actual positions indicated by the solid lines are also shown for the positions of the parked vehicles 2a and 2b Is not calculated, and the broken line is in the wrong position.
  • the accumulation error of the calculated value of the vehicle position leads to a decrease in the parking space determination accuracy.
  • the detection point is acquired as close as possible to the origin of the coordinate system so that the error is not accumulated until it has a significant effect. There is a need to.
  • the coordinate system may be changed for each detection object.
  • FIG. 13 is a diagram illustrating an example of a parking space determination process in which the coordinate system is changed for each detection target, and illustrates a case where the vehicles 1 are parked in parallel between the parked vehicles 2a and 2b.
  • the data acquisition unit 11 sets the traveling direction of the vehicle 1 traveling on the side of the parked vehicle (first detection target) 2b close to the vehicle 1 with the own vehicle position at the time of system startup as the origin.
  • Detection point data and sensor position data are acquired as data in a two-dimensional orthogonal coordinate system parallel to the ground with the y coordinate axis and the distance detection direction by the distance sensor 3 as the x coordinate axis.
  • the position coordinates of the corner portions (rear Ab, front Bb) of the parked vehicle 2b are obtained.
  • This coordinate system is defined as a coordinate world A (first two-dimensional orthogonal coordinate system).
  • the data acquisition unit 11 stops detecting the distance to the parked vehicle 2b, that is, after the detection of the detection point of the first parked vehicle 2b is interrupted.
  • the coordinate world A is changed to a new coordinate world B (arrow (1) in FIG. )reference).
  • This coordinate world B (second two-dimensional orthogonal coordinate system) is obtained when the first detection point D1 of the parked vehicle 2a is detected or when a predetermined number of detection points of the parked vehicle 2a are detected.
  • the data acquisition unit 11 obtains the coordinates of the mapping from the coordinate world A to the coordinate world B for the position coordinates of the corners (rear Ab, front Bb) of the parked vehicle 2b. This mapping data is used for determining the parking space length in the coordinate world B.
  • a map (c, d) of the coordinate (a, b) from the coordinate world A to the coordinate world B is expressed as follows. Calculate (see arrow (2) in FIG. 13). Thereby, the space length determination unit 17 calculates the parking space length using the corner position coordinates of the front Bb mapped to the coordinate world B and the corner position coordinates of the rear Aa obtained in the coordinate world B.
  • the detection point group in the coordinate world A may be deleted without calculating the mapping to the coordinate world B after calculating the corner position of the first parked vehicle 2b.
  • the mapping to the coordinate world B is calculated only for the corner position coordinates necessary for parking space determination, and the rest is deleted. May be.
  • the corner position coordinates of the rear Ab of the parked vehicle 2b are deleted without calculating the mapping to the coordinate world B because they are not necessary for parking space determination.
  • detection point data indicating a detection point sequence in which the distance from the parked vehicle 2 is detected by the distance sensor 3 while the vehicle 1 is traveling on the side of the parked vehicle 2.
  • Detection point data corresponding to the corner portion of the parked vehicle 2 is extracted, and the extracted detection point data is subjected to data interpolation by removing noise components and approximating the curve of the detection point sequence, and obtained detection point data.
  • the sensor position data which shows the movement locus
  • the length of the parking space adjacent to 2 is measured to determine whether the vehicle 1 can be parked.
  • an approximate curve is not obtained from the detection point data of the entire parked vehicle 2 composed of a straight line portion and a curved portion, and the curved portion is limited to the main corner portion and the curve approximation is performed, thereby detecting the actual corner portion.
  • the locus of point data can be faithfully reproduced. Thereby, a parking space can be measured accurately.
  • the detection point data from which the noise component has been removed is complemented by curve approximation of the detection point sequence, and the reflection point of the detection wave at the corner portion is estimated using the complementary data, thereby stably stabilizing the corner position (coordinates) and The parking space length can be obtained.
  • FIG. 14 is a diagram for explaining a factor that cannot accurately determine the corner position.
  • the distance sensor 3 irradiates the detection object 2a with the ultrasonic wave (one-dot broken line arrow) while moving on the travel locus 20 of the vehicle 1, and the detection object 2a is reflected from the reflection point 18.
  • the reflected wave (solid arrow) is received and the distance to the detection target 2a is detected.
  • the distance sensor 3 receives the reflected wave at the viewing angle ⁇ .
  • the distance sensor 3 Reflected waves deviate from the receiving area of the viewing angle ⁇ and cannot be received.
  • the detection object may be detected smaller than the actual and the parking space may be determined larger than the actual.
  • the corner position obtained by the corner position determination unit 16 is corrected to a position that considers the corner end point 19 based on the form of the point sequence of the estimated reflection points.
  • the form of the reflection point sequence includes the separation distance of the reflection points, the variation amount, or the depth amount from the straight portion of the detection target.
  • FIG. 15 is a block diagram showing a configuration of a parking assistance apparatus according to Embodiment 2 of the present invention.
  • the parking assist device of the second embodiment includes a corner position correction unit 22 as a functional configuration of the ECU 9 in addition to the configuration shown in FIG. 3.
  • the corner position correction unit 22 is a component that corrects the corner position obtained by the corner position determination unit 16 based on the form of the reflection point sequence estimated by the reflection point estimation unit 15.
  • FIG. 16 is a flowchart illustrating a flow of a parking support operation performed by the parking support apparatus according to the second embodiment.
  • the process from step ST1, step ST2 to step ST5, the process from step ST2a to step ST5a, and the process of step ST6 and step ST7 are the same as in the first embodiment.
  • processing unique to the second embodiment corner position correction processing
  • step ST5-1 the corner position correction unit 22 inputs the determination result of the corner position of the front B of the parked vehicle 2b and the reflection point data used for the determination from the corner position determination unit 16, and indicates the reflection point data.
  • the distance (correction amount) from this reflection point to the corner end point 19 is estimated using the radius of curvature R of the corner portion of the front B, with the reflection point at the end of the reflection point group as a reference, and estimated.
  • the corner position coordinates of the front B are corrected with the corrected amount.
  • the corner position correction unit 22 inputs the determination result of the corner position of the rear A of the parked vehicle 2a and the reflection point data used for the determination from the corner position determination unit 16, and based on the reflection point data,
  • the correction amount is estimated from the curvature radius R of the corner portion of the rear A, and the corner position coordinates of the rear A are corrected with this correction amount (step ST5a-1).
  • the correction of the corner position coordinates (Xcn, Ycn) is to correct the Y-axis direction.
  • the radius of curvature obtained based on the reflection point data is R.
  • the correction amount Ycnoffset of the Y-axis coordinate is obtained by the following formula (1a).
  • ⁇ and ⁇ are correction amount coefficients.
  • Ycnoffset ⁇ ⁇ R + ⁇ (1a)
  • the corner position coordinates (Xcn, Ycn) of the front corner or the rear corner are corrected. Since the Y-direction polarity of the correction is reversed at the front corner and the rear corner, if the corrected front and rear corner position Y coordinates are Ycn'f and Ycn'r, Ycn'f and Ycn'r Calculated by the formula.
  • Ycn'f Ycn + Ycnoffset
  • Ycn'r Ycn-Ycnoffset
  • the correction amount coefficients ⁇ and ⁇ may be set individually for the front and the rear.
  • FIG. 17 is a diagram for explaining the corner position correction algorithm 1.
  • a portion for example, a side surface of a parked vehicle
  • reflection points are obtained at equal intervals according to the traveling speed of the vehicle on which the parking assist device is mounted.
  • the corner portion with curvature reflects the detection waves from the distance sensors at a plurality of sensor positions in a close region, and therefore the reflection points are dense. Therefore, the separation distance (hereinafter referred to as vector distance) between the adjacent reflection points in the corner portion tends to be shorter than the vector distance between the reflection points in a portion parallel to the movement locus of the distance sensor.
  • a vector distance (d1, d2, d3,..., Dn) between adjacent reflection points is obtained with reference to the reflection point D1 at the end, and the vector distance di is a predetermined threshold value.
  • the following reflection point group is defined as a reflection point at the corner.
  • the variance of the vector distance is calculated using the following equation (3).
  • dave is an average value of vector distances in the reflection point group at the corner portion.
  • correction algorithm 2 estimates the curvature of the corner portion from the average of the vector distance instead of the dispersion of the vector distance, and corrects the position coordinates of the corner portion using this curvature.
  • a vector distance (d1, d2, d3,..., Dn) between adjacent reflection points is obtained with reference to the reflection point D1 at the end, and the vector distance di is predetermined.
  • a reflection point group that is equal to or less than the threshold value is set as a reflection point at the corner.
  • the average value dave of the vector distance in the reflection point group of the corner part is calculated, and the curvature radius R of the corner part is estimated from the following formula (3b) based on the average value dave.
  • a2 and c2 are constants.
  • R a2 ⁇ dave + c2 (3b)
  • the position coordinates of the corner portion are corrected from the estimated curvature radius R using the above-described equation (1a).
  • FIG. 18 is a diagram for explaining the corner position correction algorithm 3.
  • the curvature radius R is estimated on the assumption that the corner is an arc.
  • FIG. 18 is a diagram for explaining the corner position correction algorithm 3. First, on the basis of the reflection point D1 at the extreme end, at least three reflection points (D1 to D3 in the example of FIG. 18) in the vicinity including the reflection point D1 are extracted.
  • the radius of curvature R of the arc is calculated from the position coordinates of the reflection points D1 to D3. If three points on the same circle are determined, the center and radius of the circle are determined. The coordinates of the three points near the estimated reflection point at the end are D1 (x1, y1), D2 (x2, y2), and D3 (x3, y3), respectively.
  • FIG. 19 is a diagram for explaining a corner position correction algorithm 4 and a correction algorithm 5 described later.
  • the correction algorithm 4 how far the reflection point D1 located at the end is from a position parallel to the sensor movement locus of the detection target 2a is calculated, and the correction amount is calculated based on this.
  • xy coordinates defining the y-axis in the sensor movement direction are set, and the x-coordinate value of the position of the reflection point D1 at the end and the part parallel to the sensor movement locus of the detection target 2a
  • a difference value ⁇ VD (depth amount) with respect to the x coordinate value is calculated, and based on the difference value ⁇ VD, a corner position correction amount Ycoffset is determined by the following equation (1a-4) to correct the corner position coordinates.
  • ⁇ and ⁇ are correction amount coefficients.
  • Ycnoffset ⁇ ⁇ ⁇ VD + ⁇ (1a-4)
  • Correction algorithm 5 In the correction algorithm 5, as in the correction algorithm 4, it is calculated how far the reflection point D 1 at the end is from the portion parallel to the sensor movement locus of the detection target 2 a, and this is used as a basis. The correction amount is calculated. As shown in FIG. 19, xy coordinates defining the y-axis in the sensor movement direction are set, and the x-coordinate value of the position of the reflection point D1 at the end and the part parallel to the sensor movement locus of the detection target 2a A difference value ⁇ VD (depth amount) from the x coordinate value is calculated, and a correction amount ⁇ Y is calculated using the following equations (4) to (7).
  • the angle ⁇ of the reflection point D1 with respect to the center of the arc having the radius of curvature R is a straight line connecting the midpoint between the sensor position coordinates and the reflection point that is the center of the two circles used when estimating the reflection point D1.
  • ⁇ Y (1-sin ⁇ ) / (1-cos ⁇ ) ⁇ ⁇ VD (8)
  • ⁇ Y (1-sin ⁇ ) / (1-cos ⁇ ) ⁇ ⁇ VD (8)
  • ⁇ and ⁇ are correction amount coefficients.
  • Ycnoffset ⁇ ⁇ ⁇ Y + ⁇ (1a-5)
  • FIG. 20 is a diagram for explaining the corner position correction algorithm 6.
  • the angles ⁇ 1 and ⁇ 2 of the reflection points with respect to the center of the arc having the radius of curvature R are similar to the correction algorithm 4 described above, between the sensor position coordinates at the center of the two circles used when estimating the reflection points. Is calculated from the slope of a straight line connecting the midpoint and the reflection point.
  • the change amount ⁇ 1 ( ⁇ 1 ⁇ 2) of the angle ⁇ with respect to the reflection point D1 at the end most becomes smaller as the radius of curvature R becomes smaller in the region where ⁇ is large.
  • the curvature radius R is calculated at a plurality of reflection points in the vicinity of the point D1, and the curvature radius R is calculated by the following equation (1a-6) from the correspondence relationship between the previously determined tendency of ⁇ i and the curvature radius R.
  • ⁇ and ⁇ are correction amount coefficients.
  • increases as the radius of curvature R decreases at the boundary between the straight line and the arc (in the vicinity of the reflection point D4 in FIG. 20). Therefore, the radius of curvature R may be calculated based on the maximum value ⁇ of change in angle ⁇ with reference to the first reflection point where the shape changes from a straight line to an arc.
  • FIG. 21 is a diagram for explaining the corner position correction algorithm 7.
  • the detection object 2a has a small radius of curvature R at the corner (see FIG. 13A)
  • the length in the direction along the sensor movement locus of the detection point sequence (the y-axis direction in FIG. 21) is Since this corresponds to the length in the direction along the sensor movement trajectory of the side surface of the detection object 2a, the approximate size of the detection object 2a can be identified by the length of the detection point sequence in the y-axis direction.
  • the detection points are widely distributed in the traveling direction of the vehicle with respect to the size of the detection object 2a.
  • the size of the detection object 2a cannot be specified.
  • the reflection point sequence is concentrated in an adjacent region. Therefore, the length LR of the reflection point sequence in the y-axis direction is the detection object. It is close to the size of 2a in the y-axis direction. That is, the small detection object 2a and the large detection object 2a can be identified by the length LR of the reflection point sequence in the y-axis direction.
  • the correction algorithm 7 identifies whether the reflection point sequence is small or large in accordance with the length LR in the y-axis direction, and is separately provided for the identified small detection object 2a and large detection object 2a. Apply the correction amount of the corner position.
  • the small detection object 2a such as a cone or a pole
  • reflection points are concentrated in a certain region of the small detection object 2a, so that the length LR of the reflection point row in the y-axis direction and the y-axis direction of the detection object 2a The size of is almost equal.
  • the correction amount from the position of the reflection point D1 is estimated to be small, and is set to a value equal to or less than the predetermined threshold C1 relating to the correction amount.
  • the reflection point sequence extends in a certain direction on the side surface of the large detection target 2a. Therefore, the large detection target 2a has a length LR in the y-axis direction of the reflection point sequence.
  • the size in the y-axis direction is specified, and a value exceeding the predetermined threshold C1 is set as the correction amount.
  • correction algorithm 8 the radius of curvature of the corner is estimated based on the degree of dispersion of the divergence distance of each reflection point from the center of gravity of the reflection point sequence at the corner, and the corner end point is determined from the reflection point at the end using the curvature radius. A correction amount up to is obtained.
  • FIG. 22 is a diagram for explaining the corner position correction algorithm 8.
  • the average value of the x-coordinate and y-coordinate of each of the reflection points D1 to D4 in the corner portion is calculated, and the variance of the divergence distance of each reflection point from the center of gravity position with the coordinate position of the average value as the center of gravity.
  • the degree is obtained from the following formula (10).
  • Dispersion ⁇ 7 ⁇ ⁇ sum of (dxi 2 + dyi 2 ) ⁇ / N ⁇ (10)
  • the curvature radius R of the corner portion is small, and when the dispersion ⁇ 7 is large, the curvature radius R of the corner portion is also large.
  • the curvature radius R of the corner portion is estimated by the following equation (1a-7).
  • a7 and c7 are constants.
  • R a7 ⁇ ⁇ 7 + c7 (1a-7)
  • the corner position is corrected according to the above-described equation (1a).
  • the corner position correction that corrects the corner position coordinates determined by the corner position determination unit 16 based on the form of the reflection point sequence estimated by the reflection point estimation unit 15. Since the section 22 is provided, a more practical parking space length can be determined.
  • the parking support device can accurately measure the length of the parking space adjacent to the detection target, the parking space of the parallel parking or the parallel parking is measured and the driver is notified of whether or not the vehicle can be parked. It is suitable for a parking assist device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • Electromagnetism (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

駐車車両2との距離を検出した検出点列を示す検出点データから、駐車車両2のコーナー部に対応する検出点データを抽出するとともに、抽出した検出点データに対しノイズ成分の除去と検出点列の曲線近似によるデータ補完を行い、検出点データ及び距離センサ3の移動軌跡を示すセンサ位置データからコーナー部における検出波の反射点を推定し、推定した反射点の位置から求めたコーナー位置に基づいて駐車車両2に隣接する駐車スペースの長さを計測し車両1の駐車可否を判定する。

Description

駐車支援装置
 この発明は、縦列駐車又は並列駐車の駐車スペースを計測して運転者に自車の駐車可否を告知する駐車支援装置に関するものである。
 従来では、検出波を照射して検出対象物からの反射データを収集し、反射データの点列に対し放物線近似あるいは楕円近似を行い、この近似データを回転補正処理することで、駐車車両等の障害物のコーナー位置を算出している(例えば、特許文献1参照)。なお、回転補正とは、検出波を照射するソナーの移動量に対するソナー位置と検出波の反射位置との検出距離の変動量の割合が大きい程、ソナー位置及び反射位置を結ぶ直線とソナーの移動軌跡との成す角度がより小さくなるように反射位置を補正することをいう。
 しかしながら、この方法では、障害物の長さに応じて近似式を切り替えているものの、反射データの点列が直線的に作成される障害物の直線部分が長くなるに従って、近似曲線が実際のコーナーを精度よく近似できなくなる。すなわち、駐車スペースの計測精度が悪化する傾向がある。
 また、特許文献2では、ソナーの移動量に対する検出距離の変動量の割合が、物体面の法線方向の正弦とほぼ等しくなることを利用して、時系列に取得した反射位置ごとの回転補正角を算出し各反射位置を回転補正する。回転補正後の反射位置のうち、ソナーの進行方向に対して最も外側に位置するものを障害物のコーナー位置と推定する。
 また、反射位置からなる点列のノイズ除去は、時系列に連続したn点分の反射データを取得し、基準点からの自車の移動距離に応じて設定される有効範囲内に各点が位置しているかに基づいてノイズ判定する。例えば、N番目の反射位置は、この位置を中心とする一定距離の円内に次の(N+1)番目の反射位置のデータが存在しないと削除される。
 特許文献2に記載の方法においても、障害物の直線部分が長くなるに従って、近似曲線が実際のコーナーを精度よく近似できなくなり、駐車スペースの計測精度が悪化する傾向がある。
 この発明は、上記のような課題を解決するためになされたもので、検出対象物のコーナー位置を基に駐車スペースを精度よく計測できる駐車支援装置を得ることを目的とする。
特開2008-21039号公報 特許第4123259号公報
 この発明に係る駐車支援装置は、検出波を照射し、検出対象物からの検出波の反射波を受信して検出対象物との距離を検出する距離センサ部と、自車両の車輪速を検出する車輪速センサ部と、検出対象物の側方を自車両で走行中に、距離センサ部及び車輪速センサ部の出力を入力し、車輪速センサ部で検出された車輪速から特定される自車両の移動距離に基づいて、自車両の移動に伴う距離センサ部の移動軌跡を示すセンサ位置データを生成するとともに、当該移動軌跡で移動する距離センサ部により距離が検出された検出点列を示す検出点データを取得するデータ取得部と、データ取得部で得られた検出点データから検出対象物のコーナー部に対応する検出点データを抽出するデータ抽出部と、データ抽出部で抽出された検出点データの検出点列を曲線近似し、近似した曲線に基づいてノイズ成分の検出点を判定し、検出点データから除去するノイズ成分除去部と、ノイズ成分除去部でノイズ成分が除去された検出点データの検出点列を曲線近似して、検出点データをデータ補完するデータ補完部と、データ補完部でデータ補完された検出点データ及びデータ取得部で取得されたセンサ位置データに基づいて、検出対象物のコーナー部における検出波の反射点を推定する反射点推定部と、反射点推定部で推定された反射点の位置に基づいて、検出対象物のコーナー部の位置を判定するコーナー位置判定部と、コーナー位置判定部で判定されたコーナー部の位置に基づいて、検出対象物に隣接する駐車スペースの長さを計測し、自車両の駐車可否の判定結果を運転者に提示するスペース長判定部とを備えるものである。
 この発明によれば、検出対象物の側方を自車両で走行中に、距離センサ部で検出対象物との距離が検出された検出点列を示す検出点データのうち、検出対象物のコーナー部に対応する検出点データを抽出するとともに、抽出した検出点データに対しノイズ成分の除去と検出点列の曲線近似によるデータ補完を行い、得られた検出点データ及び自車両の移動に伴う距離センサ部の移動軌跡を示すセンサ位置データに基づいて、コーナー部における検出波の反射点を推定し、推定した反射点の位置から求めたコーナー位置に基づいて検出対象物に隣接する駐車スペースの長さを計測し、自車両の駐車可否を判定する。このようにすることで、自車両の駐車スペースを精度よく計測できるという効果がある。
この発明における駐車支援の態様を示す図である。 この発明による駐車支援装置の構成を示す図である。 この発明の実施の形態1による駐車支援装置の構成を示すブロック図である。 実施の形態1の駐車支援装置による駐車支援動作の流れを示すフローチャートである。 検出点データとセンサ位置データの一例を示す図である。 面積比判定によるデータ抽出の一例を示す図である。 図6(b)に相当する部分の拡大図である。 ローパスフィルタ処理データとの交差判定によるデータ抽出の一例を示す図である。 ローパスフィルタ処理データとの差分値判定によるデータ抽出の一例を示す図である。 反射点と検出点が対応しない場合を説明するための図である。 2円交点処理の一例を示す図である。 駐車スペース判定処理の一例を示す図である。 自車位置計算値の蓄積誤差による自車位置計算値と実際の車両位置とのずれを説明するための図である。 検出対象物ごとに座標系を変更する駐車スペース判定処理の一例を示す図である。 コーナー位置を厳密に確定できない要因を説明するための図である。 この発明の実施の形態1による駐車支援装置の構成を示すブロック図である。 実施の形態2の駐車支援装置による駐車支援動作の流れを示すフローチャートである。 コーナー位置の補正アルゴリズム1を説明するための図である。 コーナー位置の補正アルゴリズム3を説明するための図である。 コーナー位置の補正アルゴリズム4及び補正アルゴリズム5を説明するための図である。 コーナー位置の補正アルゴリズム6を説明するための図である。 コーナー位置の補正アルゴリズム7を説明するための図である。 コーナー位置の補正アルゴリズム8を説明するための図である。
 以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、この発明における駐車支援の態様を示す図である。図1において、車両1は、この発明による駐車支援装置を搭載した車両であり、車両前方の左右に距離センサ(距離センサ部)3が設けられる。駐車車両(検出対象物)2a,2bは、道路脇に駐車している。この発明による駐車支援装置は、車両1に設けられ、この車両1を駐車車両2aと駐車車両2bとの間に縦列駐車する動作を支援する。
 先ず、車両1で駐車車両2a,2bの側方を走行しながら、距離センサ3から検出波を照射して、その到達範囲である検知エリア4に入った駐車車両2a,2bとの距離を検出する。このとき、車両1に設けた車輪速センサ(図1において不図示)によって車輪速を検出し、この車輪速データに基づいて車両1の走行軌跡を求める。
 次に、車両1の走行に伴って移動する距離センサ3の移動軌跡を示すセンサ位置データ及び車両1の走行に伴って移動する距離センサ3により距離が検出された距離の検出点列を示す検出点データに基づいて、駐車車両2a,2bのコーナー位置を検出する。図1の例では、駐車車両2b前方のコーナー(フロントB)の位置を検出して、駐車車両2a後方のコーナー(リアA)の位置を検出する。
 これらのコーナー位置に基づいて駐車車両2a,2b間の駐車スペース長を判定する。この判定結果は、車両1が出力装置10として備える表示モニタ又は音声スピーカにて、車両1の運転者に表示又は音声出力される。これによって、運転者は、車両1を縦列駐車する際、駐車車両2a,2b間の駐車可否を認識することができる。
 図2は、この発明による駐車支援装置の構成を示す図である。図2において、この発明による駐車支援装置5は、ECU(Electric Control Unit)9が、距離センサ3、車輪速センサ(車輪速センサ部)6、ウインカー7、計測開始スイッチ8及び出力装置10と接続して、駐車支援のための各種の情報を取得する。ここで、車輪速センサ6、ウインカー7、計測開始スイッチ8の情報は、CANバス23を介してECU9に入力される。距離センサ3は、図1に示すように車両1の左右に設けられ、検出対象物に検出波を照射し、検出対象物からの検出波の反射波を受信して検出対象物との距離を検出するセンサである。検出波としては、超音波やレーザー光、電波等が挙げられる。
 車輪速データを収集する車輪速センサ6は、図1に示す車両1の左右の後車輪に設けられ、各車輪の車輪速を検出するセンサである。なお、車輪速センサ6にて検出された車輪速は、CANバス23を介してECU19へ出力される。ウインカー7及び計測開始スイッチ8の情報は、運転者による運転操作で得られた情報(方向指示及び駐車スペース計測開始)を、CANバス23を介してECU9へ伝達する。駐車する際、運転者は、ウインカー7を操作して左右どちら側に駐車するかを指示する。この後、運転者が計測開始スイッチ8を操作することで、ウインカー7で指示された側の駐車スペース長の計測開始が指示される。
 ECU9は、車両の動作制御の他に、ウインカー7及び計測開始スイッチ8による指示に応じてウインカー7で指示された側の駐車スペースを計測する、駐車支援装置5の演算処理部として機能する。出力装置10は、駐車支援情報等を運転者に提示する出力装置であり、車載機器の表示モニタや音声スピーカ等から構成される。
 図3は、この発明の実施の形態1による駐車支援装置の構成を示すブロック図であり、図2のECUの機能構成を示している。図3において、ECU9は、データ取得部11、データ抽出部12、ノイズ成分除去部13、データ補完部14、反射点推定部15、コーナー位置判定部16及びスペース長判定部17を備える。なお、図3では、CANバス23の記載を省略している。
 データ取得部11は、距離センサ3及び車輪速センサ6の検知情報に基づいて、距離センサ3で検出された検出点データと、距離センサ3の移動軌跡に沿ったセンサ位置を示すセンサ位置データを生成する構成部である。データ抽出部12は、データ取得部11にて取得された検出点データのうちから、検出対象物のコーナー部分に対応する検出点データを抽出する構成部である。
 ノイズ成分除去部13は、データ抽出部12で抽出された検出点列に対して、曲線近似によるスムージング処理を行い、検出点データからノイズ成分を除去する構成部である。データ補完部14は、ノイズ成分除去部13にてノイズ成分が除去された検出点列を曲線近似して検出点データを補完する構成部である。
 反射点推定部15は、データ補完部14で補完された検出点データ及びセンサ位置データから、検出波の反射点を推測する構成部である。反射点は、距離センサ3が超音波センサである場合、検出対象物における超音波の反射位置となる。コーナー位置判定部16は、反射点推定部15で推定された反射点のデータから、検出対象物のコーナー位置を判定する構成部である。スペース長判定部17は、コーナー位置判定部16により判定されたコーナー位置の座標に基づいて駐車スペースを計測し、自車両の駐車可否を判定する構成部である。ここで、ウインカー7と計測開始スイッチ8の操作順序は問わない。
 次に動作について説明する。
 図4は、実施の形態1の駐車支援装置による駐車支援動作の流れを示すフローチャートである。以降では、距離センサ3を超音波センサとして説明する。
 先ず、図1に示すように、道路脇の駐車車両2a,2b(以下、駐車車両2と適宜総称する)間に車両1を縦列駐車するとき、車両1の運転者がウインカー7を左方向にセットし計測開始スイッチ8をオンにして、図1の矢印方向に駐車車両2a,2bの側方を走行する。
 運転者によってウインカー7で左方向の指示がなされ、計測開始スイッチ8がオンされると、データ取得部11は、ウインカー7の方向指示に従って車両1左側の距離センサ3を起動する。距離センサ3は、駐車車両2に超音波を照射して駐車車両2からの反射波を受信するまでの時間に基づいて、駐車車両2との距離を計測する。また、同時に、データ取得部11は、距離センサ3の距離検知に応じて車輪速データを収集・蓄積し、蓄積した車輪速データに基づいて、車両1の走行に伴う距離センサ3のセンサ位置を計測する。
 このようにして、データ取得部11は、検出点データとセンサ位置データを収集する。ここで、検出点データは、図5に示すような車両2の外形に沿って検出点列が並ぶデータとなる。また、センサ位置データでは、例えば、図5の矢印方向に走行する車両1の走行軌跡に沿った距離センサ3の位置が特定される。ここまでの処理がステップST1に相当する。
 なお、ステップST1において、データ取得部11が、以下のように動作してもよい。先ず、データ取得部11は、計測開始スイッチ8がオンされた後、距離センサ3で最初に車両2との距離が検出されると、車輪速センサ6から入力した車輪速データの蓄積を開始する。この後、データ取得部11は、車両1が一定の距離以上走行する間、距離センサ3にて距離が検出されなかった場合には車輪速データの蓄積を休止し、車両1の走行に伴い新たに距離が検出されたとき蓄積を再開することで、駐車車両ごとに車輪速データを蓄積する。
 このように、各駐車車両に対して最初に検出点データを検出した時点の車輪速データから蓄積を開始することで、検出点の取得に伴い最新の車輪速データで距離センサ3の位置座標を更新する。これにより、コーナー位置計算に対応しない駐車車両未検知区間の余分な車輪速データとその誤差が蓄積されることを抑制することができる。
 データ抽出部12は、データ取得部11で得られた検出点データから、図1に示す駐車車両2bのフロントBのコーナー部に対応するデータと、駐車車両2aのリアAのコーナー部に対応するデータとを抽出する(ステップST2、ステップST2a)。
 ノイズ成分除去部13は、データ抽出部12にて抽出されたフロントBのコーナー部に対応する検出点データを入力すると、この検出点データの検出点列を近似する第一回目の近似曲線を生成し、近似した曲線から一定距離以上外れる検出点をノイズ成分として削除する(ステップST3)。同様に、ノイズ成分除去部13は、リアAのコーナー部に対応する検出点データを入力すると、この検出点データの検出点列を近似する第一回目の近似曲線を生成して、近似した曲線から一定距離以上外れる検出点をノイズ成分として削除する(ステップST3a)。
 データ補完部14は、ノイズ成分除去部13によりノイズ成分が削除された、フロントBのコーナー部に対応する検出点データを入力すると、この検出点データの検出点列を近似する第二回目の近似曲線を生成して検出点データを補完する(ステップST4)。
 同様に、データ補完部14は、ノイズ成分除去部13によりノイズ成分が削除された、リアAのコーナー部に対応する検出点データを入力すると、この検出点データの検出点列を近似する第二回目の近似曲線を生成し検出点データを補完する(ステップST4a)。
 ここで、データ抽出部12のデータ抽出方法を例示し、上述のステップST2~4及びステップST2a~4aの詳細を説明する。コーナー部に対応する検出点データを抽出する方法としては、例えば、以下の(1)~(3)が挙げられる。
(A)データ抽出アルゴリズム1
 図6は、面積比判定によるデータ抽出の一例を示す図である。図6(a)のxy座標系は、駐車車両2の側方を走行する車両1(自車両)の走行方向をy座標軸とし、距離センサ3による距離検出方向をx座標軸とする地面に平行な2次元直交座標系である。
 面積比判定によるデータ抽出を行う場合、図6(a)に示すように、最初に得られた検出点D1を基準として検出点D1とその後に順に検出される検出点とが対角線で結ばれる各頂点になる矩形を想定する。
 データ抽出部12は、検出点が順に検出されると、検出点D1に対応する頂点から最新の検出点に対応する頂点までの間で隣り合う検出点同士を対角線で結び、この対角線を境に分割した上記矩形の分割領域である駐車車両2側(内側)の面積S1と車両1側(外側)の面積S2との比(S1/S2)を算出して所定の閾値K1と比較する。
 図1に示すように、駐車車両2b,2aの横を車両1で走行しながら、距離センサ3を動作させると、先ず駐車車両2bのリアのコーナー部との距離が検出され、続いて駐車車両2bの側面、駐車車両2bのフロントBのコーナー部との距離が検出される。この後、駐車車両2bと駐車車両2aとの間に車両1が進むと、反射波が得られず距離が検出されなくなり、さらに駐車車両2aまで車両1が進むと、駐車車両2aのリアAのコーナー部との距離が検出され、続いて駐車車両2aの側面、駐車車両2aのフロントのコーナー部との距離が検出される。
 そこで、データ抽出部12は、その後に距離センサ3の検知エリア4が駐車車両2bと駐車車両2aとの駐車間隔に達するまでに検出された検出点データから遡って面積比S1/S2が閾値K1以上となるまでの区間をフロントBのコーナー部に対応する検出点データとして抽出する(ステップST2)。なお、ここでは、フロントBのコーナー部の処理は、図示を省略し、リアAのコーナー部を図示して説明する。
 続いて、データ抽出部12は、リアAのコーナー部分で最初に検出された検出点から、面積比S1/S2が閾値K1を超えるまでに検出された検出点を、リアAのコーナー部に対応する検出点データとして抽出する(ステップST2a)。図6(a)では、検出点D9の次に検出された検出点では面積比S1/S2が閾値K1を超えるため、最初に検出された検出点D1から検出点D9までの検出点列がリアAのコーナー部の検出点データとして抽出される。
 このように、面積比判定では、駐車車両2の側方を走行する自車両1の走行方向をy座標軸とし、これに直交する座標軸を距離センサ3による距離検出方向とした地面に平行な2次元直交座標系において、駐車車両2の側面で検出点列が直線状に並び、コーナー部において検出点列が曲線状に並んで、駐車車両2の側面とコーナー部との間で面積比S1/S2の大きさが変化することを利用して、コーナー部に対応する検出点データを抽出するものである。
 次に、ノイズ成分除去部13の動作をリアAのコーナー部のデータを用いて説明する。
 データ抽出部12でリアAのコーナー部に対応する検出点データが抽出されると、これらの検出点列で形成される曲線に対し、最小2乗法で3次近似曲線(x=ay+by+cy+d)のパラメータを同定することにより、図6(b)に示すように第一回目の近似曲線を生成する。続いて、ノイズ成分除去部13は、求めた3次近似曲線から距離センサ3による距離検出方向(x軸方向)に所定の範囲を超えるばらつきがある検出点をノイズ成分として削除する(ステップST3a)。一例を図6(b)に示す。同図では、検出点D6とD7が削除される。
 例えば、図6-1(図6(b)に相当する部分を拡大した図)に示すように3次近似曲線上の点(Xci,Yci)と検出点(Xi,Yi)との距離センサ3による距離検出方向(x軸方向)の差(Xci-Xi)の標準偏差σに一定の係数jを乗じた値を閾値とし、この閾値を超えた検出点を削除する。また[|Xci-Xi|≦j×σ]のとき、検出点は削除しない。ここでは、下記式に従うものとする。
 x(バー)=(1/n)×ΣXi(i=1,・・・,n)
 σ=(1/n)Σ(Xi-x(バー))
 このようにすることで、駐車車両2の外形に沿った検出点列で形成される曲線がスムージング処理され、車両1に近い検出点を有効な検出点データとすることができる。これにより、駐車車両2の外形の最端位置を推定することが可能である。
 また、3次近似曲線と検出点との距離センサ3による距離検出方向(x軸方向)の差の標準偏差σに、一定値の係数jを乗じ、一定値の係数kを加算した値を閾値とし、3次近似曲線の内側と外側で係数j及びkは固有値として、上記の閾値を超えた検出点を削除するようにしてもよい。
 このように、3次近似曲線の内側と外側でノイズ除去の閾値に重みをもたせることで、検出対象物(駐車車両2)の外形の最端位置の推定精度を向上できる。例えば、(内側の係数)>(外側の係数)とし、タイヤハウスなどの窪み形状の検出点を除去する場合に有効である。
 データ補完部14は、ノイズ成分除去部13による処理で残った検出点列に対し、同様に最小2乗法で3次近似曲線(x=ay+by+cy+d)のパラメータを同定することで、図6(c)に示すような第二回目の近似曲線を生成する。これにより、検出点データが第二回目の近似曲線で補完される。
 なお、上記の説明では、検出点列を3次近似曲線で近似する場合を示したが、検出点列を適切に近似できるものであれば、例えば、2次近似曲線を用いても構わない。
(B)データ抽出アルゴリズム2
 図7は、ローパスフィルタ処理データとの交差判定によるデータ抽出の一例を示す図である。図7(a)のxy座標系は、図6と同様に、駐車車両2の側方を走行する車両1(自車両)の走行方向をy座標軸とし、距離センサ3による距離検出方向をx座標軸とする地面に平行な2次元直交座標系である。
 ローパスフィルタ処理データとは、コーナー部に対応する検出点列を近似する曲線データであり、下記式(1)及び(2)を用いてオフセット値LPFinitと検出点データとをローパスフィルタ処理して求める。ただし、検出点をPi(xi,yi)(i=1,2,3,4,・・・)とし、LPFx1=x1-LPFinitである。
 また、LPFxiは、LPF近似曲線の今回値であり、LPFxi-1は、LPF近似曲線の前回値である。αは予め設定したLPF影響度であり、LPFinitは予め設定した初期オフセット量(図7(a)のオフセット)である。
 LPFxi=LPFxi-1+(xi-LPFx-i)×α   ・・・(1)
 LPFyi=yi   ・・・(2)
 データ抽出部12は、ローパスフィルタ処理データを算出すると、ローパスフィルタ処理データの近似曲線と検出点列とを比較する。
 駐車車両2bのフロントBのコーナー部に対応する検出点データを抽出する場合、データ抽出部12は、上記の比較により、ローパスフィルタ処理データの近似曲線と交差する検出点があると、この検出点以前に順次検出された車両側面側の検出点が所定数以上になった時点で、この検出点位置によりコーナー端側の検出点列を抽出する(ステップST2)。
 また、駐車車両2aのリアAのコーナー部に対応する検出点データを抽出する場合、データ抽出部12は、ローパスフィルタ処理データの近似曲線と交差する検出点A1があると、駐車車両2aにて最初に検出された検出点から検出点A1までの検出点列を抽出する(ステップST2a)。
 ノイズ成分除去部13は、データ抽出部12でリアAのコーナー部に対応する検出点データが抽出されると、これらの検出点群に対し、上述と同様に最小2乗法で3次近似曲線のパラメータを同定することにより、図7(b)に示すように第一回目の近似曲線を生成する。続いて、ノイズ成分除去部13は、この3次近似曲線から距離検出方向(x軸方向)に所定の範囲以上のばらつきがある検出点をノイズ成分と判定して削除する(ステップST3a)。ノイズ成分除去の態様は、(A)データ抽出アルゴリズム1と同様である。
 データ補完部14は、ノイズ成分除去部13による処理で残った検出点列に対し、同様に最小2乗法で3次近似曲線のパラメータを同定することで、図7(c)に示すような第二回目の近似曲線を生成する。これにより、検出点データが第二回目の近似曲線で補完される。
(C)データ抽出アルゴリズム3
 図8は、ローパスフィルタ処理データとの差分値判定によるデータ抽出の一例を示す図である。図8(a)のxy座標系は、図6と同様に、駐車車両2の側方を走行する車両1(自車両)の走行方向をy座標軸とし、距離センサ3による距離検出方向をx座標軸とする地面に平行な2次元直交座標系である。
 上述の交差判定は、ローパスフィルタ処理データの近似曲線と交差する検出点を基準としてコーナー部に対応する検出点を抽出したが、この差分値判定では、ローパスフィルタ処理データとの距離検出方向(x軸方向)の座標値の差分が所定の閾値未満になった検出点を基準とする。
 データ抽出部12は、図7と同様に、ローパスフィルタ処理データを算出すると、このローパスフィルタ処理データと検出点との距離検出方向(x軸方向)の座標値の差分を算出し、この差分値と所定の閾値を比較する。
 駐車車両2bのフロントBのコーナー部に対応する検出点データを抽出する場合、データ抽出部12は、上記比較で差分値が所定の閾値未満の検出点があると、この検出点以前に順に検出された検出点が所定数以上になった時点で、その時点よりコーナー端側にある検出点群を抽出する(ステップST2)。
 また、駐車車両2aのリアAのコーナー部に対応する検出点データを抽出する場合、データ抽出部12は、差分値が上記閾値未満の検出点A2があると、駐車車両2aで最初に検出された検出点から検出点A2までの検出点列を抽出する(ステップST2a)。
 ノイズ成分除去部13は、データ抽出部12でリアAのコーナー部に対応する検出点データが抽出されると、これらの検出点列に対し、上述と同様に最小2乗法で3次近似曲線のパラメータを同定することにより、図8(b)に示すように第一回目の近似曲線を生成する。続いて、ノイズ成分除去部13は、この3次近似曲線から距離検出方向(x軸方向)に所定の範囲以上のばらつきがある検出点をノイズとして削除する(ステップST3a)。ノイズ成分除去の態様は、(A)データ抽出アルゴリズム1と同様である。
 データ補完部14は、ノイズ成分除去部13による処理で残った検出点列に対し、同様に最小2乗法で3次近似曲線のパラメータを同定することで、図8(c)に示すような第二回目の近似曲線を生成する。これにより、検出点データが第二回目の近似曲線で補完される。
 図4の説明に戻る。反射点推定部15は、データ補完部14で補完された検出点データと、センサ位置データとを用いて2円交点処理を施すことにより、コーナー部の反射点の座標を推定する(ステップST5、ステップST5a)。ここで、2円交点処理を詳細に説明する。
 距離センサ3(超音波センサ)は、照射口の中心軸に対してある程度の広がりをもって探索信号(超音波)を照射することにより、図1に示すような検知エリア4を形成する。すなわち、距離センサ3は、検出対象物からの反射波(超音波エコー信号)をある程度の視野角の受信領域で受信する。このため、検出波を反射した反射点と距離を検出した検出点とが対応しない場合が発生する。
 図9は、反射点と検出点が対応しない場合を説明するための図である。図9(a)に示すように、検出対象物2aがコーンやポールなどの曲率の小さい小型の障害物であると、走行軌跡20の各位置の距離センサ3から照射された検出波(一点破線矢印)が、検出対象物2aの近接した反射点18でそれぞれ反射される。そして、視野角θの受信領域まで到達した反射波(実線矢印)が距離センサ3にそれぞれ受信される。
 走行軌跡20の各位置の距離センサ3では、検出波を照射して反射波を受信するまでの時間に基づいて、検出波の照射口と検出点21aとの距離を計測する。このため、図9(b)に示すように検出点21が自車の走行方向に沿った検出点軌跡21に広く分布して、検出対象物2aの反射点18と検出点21aが一致しない場合がある。
 そこで、実施の形態1では、検出点データとセンサ位置データとを用いた2円交点処理により、走行軌跡20における各位置の距離センサ3で検出された検出点から、反射点の位置座標を推定する。
 図10は、2円交点処理の一例を示す図である。反射点推定部15は、データ補完部14から、図10(a)に示すようなコーナー部に対応する検出点データを入力するとともに、距離センサ3による距離の検知に応じて蓄積された車輪速データから、距離センサ3の位置を示すセンサ位置データを求める。
 距離センサ3は、車両1の走行軌道上で移動するため、車両1の走行速度によっては、検出点が密集して得られたり、まばらに得られる場合がある。この場合は、車両1の走行方向に検出点と距離センサの位置がばらつくため、後の処理が複雑になる。
 この不具合を解消するため、データ補完部14が、最も端の検出点D1を基準として、車両1の走行方向に一定の間隔Lになるよう、検出点データの検出点位置及びセンサ位置データのセンサ位置を変換する。なお、このとき、検出点と距離センサ3との距離は維持する。このようにすることで、車両1の走行速度によらず、検出点データ及びセンサ位置データを利用することが可能となる。
 次に、反射点推定部15が、図10(b)に示すように、データ補完部14により変換された検出点データ及びセンサ位置データから、各センサ位置を中心として、センサ位置から検出点までの距離を半径とする円をそれぞれ想定する。この円の駐車車両2側の円弧が距離センサ3の検知エリアに相当する。
 反射点推定部15は、各検出点をそれぞれ通る円弧を想定すると、隣り合った検出点(DnとDn+1あるいはDn+i;nは1以上の整数、iは2以上の整数)を通る円弧の交点C1~C5を反射点として位置座標を算出する。これにより、実際の反射点の近似座標を推定することができる。
 コーナー位置判定部16は、反射点推定部15で推定された反射点の位置データから、駐車車両2のコーナー位置を判定する。図10では、反射点C1が、コーナー位置と判定される。
 図4の説明に戻る。スペース長判定部17では、コーナー位置判定部16で判定されたコーナー位置の座標に基づいて駐車スペース長を判定する(ステップST6)。この判定結果はスペース長判定部17から出力装置10へ出力され、出力装置10を構成する表示モニタ又は音声スピーカの少なくとも一方を介して、車両1の運転者に駐車の可否が表示又は音声出力される(ステップST7)。
 ここで、駐車スペース判定の具体例を説明する。
 図11は、駐車スペース判定処理の一例を示す図であり、駐車車両2a,2bの間に車両1を縦列駐車する場合を示している。データ取得部11は、システムの起動時(計測開始スイッチ8のオン操作時)の自車(車両1)の位置と自車位置から検出点までの距離情報に基づいて、図11に示すように自車位置を原点とし、駐車車両2の側方を走行する車両1の走行方向をy座標軸とし、距離センサ3による距離検出方向をx座標軸とする地面に平行な2次元直交座標系におけるデータとして、検出点データ及びセンサ位置データを取得する。
 反射点推定部15は、図11に示す座標系の検出点列の座標から駐車車両2a,2bのコーナー位置の座標を計算する。これにより、駐車車両2bのリアAbのコーナー位置、駐車車両2bのフロントBbのコーナー位置(X1,Y1)、駐車車両2aのリアAaのコーナー位置(X2,Y2)、駐車車両2aのフロントBaのコーナー位置が求まる。
 スペース長判定部17は、駐車車両2a,2bが道路(y軸方向)に駐車しているものとし、駐車車両2bのフロントBbのコーナー位置(X1,Y1)と、駐車車両2aのリアAaのコーナー位置(X2,Y2)とを用いて、駐車車両2bと駐車車両2bとの間の駐車スペース長を、差分(Y2-Y1)から算出する。
 なお、車輪速データから自車位置を計算するシステムでは、車輪のスリップや車輪速の検出分解能等に起因して自車位置の計算値に蓄積誤差が生じる。
 図12は、自車位置計算値の蓄積誤差による自車位置計算値と実際の車両位置とのずれを説明するための図である。図12の例では、駐車車両2a,2bから離れた位置で計測開始スイッチ8がオン操作されてシステム起動し、この時点の自車位置を原点とする座標系が想定される。この場合、距離センサ3が距離を検出するまでに、車両1が長距離走行するため、自車位置計算値の蓄積誤差の影響を受けやすくなる。
 例えば、図12では、実線で示す位置が車両1の実際の位置であるが、自車位置の演算誤差や操舵角度の演算誤差の蓄積に起因して、破線で示す誤った位置が算出されている。また、自車位置計算値に生じた誤差の影響は、駐車車両2a,2bの検出点位置及びコーナー位置の座標にも及ぶため、駐車車両2a,2bの位置についても、実線で示す実際の位置が算出されず、破線の誤った位置となっている。
 このように、自車位置計算値の蓄積誤差は駐車スペース判定精度の低下に繋がる。自車位置計算値の蓄積誤差の影響を軽減して駐車スペース判定精度を向上するには、有意な影響を与えるまで誤差が蓄積されないように、座標系の原点になるべく近い位置で検出点を取得する必要がある。駐車車両2a,2bのように検出対象物が複数ある場合には、検出対象物ごとに座標系を変更してもよい。
 図13は、検出対象物ごとに座標系を変更する駐車スペース判定処理の一例を示す図であり、駐車車両2a,2bの間に車両1を縦列駐車する場合を示している。図13において、先ず、データ取得部11が、システム起動時の自車位置を原点とし、車両1に近い駐車車両(第1の検出対象物)2bの側方を走行する車両1の走行方向をy座標軸とし、距離センサ3による距離検出方向をx座標軸とする地面に平行な2次元直交座標系におけるデータとして、検出点データとセンサ位置データを取得する。これら検出点データ及びセンサ位置データを用いて、駐車車両2bのコーナー部(リアAb、フロントBb)の位置座標が求められる。この座標系を座標世界A(第1の2次元直交座標系)とする。
 次に、データ取得部11は、車両1の走行に伴い、駐車車両2bとの距離が検出されなくなった後、すなわち1台目の駐車車両2bの検出点の検出が途絶えてから、2台目の駐車車両(第2の検出対象物)2aとの距離が検出され、駐車車両2aの検出点が検出され始めると、座標世界Aを新たな座標世界Bへ変更する(図13の矢印(1)参照)。この座標世界B(第2の2次元直交座標系)は、駐車車両2aの最初の検出点D1が検出された時点あるいは駐車車両2aの検出点が所定数検出されるようになった時点の自車位置Oを原点とし、駐車車両2aの側方を走行する車両1の走行方向をy座標軸とし、距離センサ3による距離検出方向をx座標軸とする地面に平行な2次元直交座標系である。
 座標世界Bで取得された駐車車両2aの検出点データ及びセンサ位置データから、駐車車両2aのコーナー部(リアAa、フロントBa)の位置座標が求められる。データ取得部11は、駐車車両2bのコーナー部(リアAb、フロントBb)の位置座標については座標世界Aから座標世界Bへの写像の座標を求める。この写像データが、座標世界Bにおける駐車スペース長判定に利用される。
 例えば、駐車車両2bのフロントBbのコーナー部が座標世界Aで座標(a,b)である場合、この座標(a,b)の座標世界Aから座標世界Bへの写像(c,d)を算出する(図13の矢印(2)参照)。これにより、スペース長判定部17は、座標世界Bに写像したフロントBbのコーナー位置座標と、座標世界Bで得られたリアAaのコーナー位置座標とを用いて、駐車スペース長を算出する。
 なお、座標世界Aの検出点群は、1台目の駐車車両2bのコーナー位置を算出した後、座標世界Bへの写像を計算することなく、消去するようにしてもよい。
 また、座標世界Aで駐車車両2bの複数のコーナー部の位置座標が得られた場合、駐車スペース判定に必要なコーナー位置座標だけ座標世界Bへの写像を計算して、残りを消去するようにしてもよい。例えば、駐車車両2bのリアAbのコーナー位置座標は、駐車スペース判定に必要ないので座標世界Bへの写像を計算せずに消去する。
 以上のように、この実施の形態1によれば、駐車車両2の側方を車両1で走行中に、距離センサ3で駐車車両2との距離が検出された検出点列を示す検出点データのうち、駐車車両2のコーナー部に対応する検出点データを抽出するとともに、抽出した検出点データに対しノイズ成分の除去と検出点列の曲線近似によるデータ補完を行い、得られた検出点データ及び車両1の移動に伴う距離センサ3の移動軌跡を示すセンサ位置データに基づいて、コーナー部における検出波の反射点を推定し、推定した反射点の位置から求めたコーナー位置に基づいて駐車車両2に隣接する駐車スペースの長さを計測して車両1の駐車可否を判定する。
 このように、直線部と曲線部とからなる駐車車両2全体の検出点データから近似曲線を求めず、曲線部が主体のコーナー部に限定して曲線近似することで、実際のコーナー部における検出点データの軌跡を忠実に再現することができる。これにより、駐車スペースを精度よく計測できる。さらに、ノイズ成分を除去した検出点データを検出点列の曲線近似によりデータ補完し、補完データを用いてコーナー部における検出波の反射点を推定することで、安定してコーナー位置(座標)及び駐車スペース長を求めることができる。
実施の形態2.
 検出対象物のコーナー部が曲線形状であると、上記実施の形態1では、コーナー位置を厳密に確定することができない。
 図14は、コーナー位置を厳密に確定できない要因を説明するための図である。図14において、距離センサ3は、車両1の走行軌跡20上を移動しながら、超音波の検出波(一点破線矢印)を検出対象物2aに照射し、検出対象物2aの反射点18からの反射波(実線矢印)を受信して検出対象物2aとの距離を検出する。
 検出対象物2aのコーナー部に曲率があると、図14(a)に示すようにコーナー曲率が小さくても、反射波が距離センサ3に受信されず、コーナー端点19の位置を確定できない場合がある。また、図14(b)に示すように、距離センサ3は視野角θで反射波を受信するが、検出対象物2aのコーナーの曲率が大きいと、距離センサ3の位置によっては、コーナー部からの反射波が視野角θの受信領域から外れて受信できない。
 このように、コーナー部で反射点の検出ができないと、コーナー部の全形状を把握することができず、コーナー端点19の位置も把握できない。これにより、車両等の検出対象物の最も端の位置が確定できないために、検出対象物が実際よりも小さく検出され、駐車スペースが実際より大きく判定される可能性がある。
 そこで、実施の形態2では、推定した反射点の点列の形態に基づいて、コーナー位置判定部16で求められたコーナー位置を、コーナー端点19を考慮した位置に補正する。
 このようにすることで、より実用的な駐車スペース長判定が可能である。なお、反射点列の形態には、反射点の離隔距離、ばらつき量もしくは検出対象物の直線部分からの奥行き量などがある。
 図15は、この発明の実施の形態2による駐車支援装置の構成を示すブロック図である。実施の形態2の駐車支援装置は、図15に示すように、ECU9の機能構成として、図3に示した構成に加え、コーナー位置補正部22を備える。コーナー位置補正部22は、反射点推定部15により推定された反射点列の形態に基づいて、コーナー位置判定部16で求められたコーナー位置を補正する構成部である。なお、図15のECU9おいて、図3と同様に機能する構成部には、同一符号を付し説明を省略する。
 次に動作について説明する。
 図16は、実施の形態2の駐車支援装置による駐車支援動作の流れを示すフローチャートである。図16において、ステップST1、ステップST2からステップST5までの処理、ステップST2aからステップST5aまでの処理、ステップST6及びステップST7の処理は、上記実施の形態1と同様である。以降では、実施の形態2に特有な処理(コーナー位置補正処理)について説明する。
 ステップST5-1において、コーナー位置補正部22は、駐車車両2bのフロントBのコーナー位置の判定結果及びこの判定に用いられた反射点データをコーナー位置判定部16から入力し、反射点データで示される反射点群のうち、最も端部にある反射点を基準として、この反射点からコーナー端点19までの間隔(補正量)を、フロントBのコーナー部の曲率半径Rを用いて推定し、推定した補正量でフロントBのコーナー位置座標を補正する。
 また、コーナー位置補正部22は、駐車車両2aのリアAのコーナー位置の判定結果とこの判定に用いられた反射点データをコーナー位置判定部16から入力して、この反射点データに基づいて、リアAのコーナー部の曲率半径Rから補正量を推定し、この補正量でリアAのコーナー位置座標を補正する(ステップST5a-1)。
 なお、ステップST5-1及びステップST5a-1において、コーナー位置座標(Xcn,Ycn)の補正は、Y軸方向を補正するものであり、例えば、反射点データに基づいて求めた曲率半径をRとすると、Y軸座標の補正量Ycnoffsetは、下記式(1a)で求める。ここで、α,βは補正量の係数である。
 Ycnoffset=β×R+α   ・・・(1a)
 上記補正量Ycnoffsetを用いて、フロントコーナーあるいはリアコーナーのコーナー位置座標(Xcn,Ycn)を補正する。フロントコーナーとリアコーナーでは、補正のY方向極性が逆になるため、補正後のフロントとリアのコーナー位置Y座標をYcn’f,Ycn’rとすると、Ycn’f,Ycn’rは、下記式で算出される。
 Ycn’f=Ycn+Ycnoffset
 Ycn’r=Ycn-Ycnoffset
 補正量の係数α,βは、フロントとリアでそれぞれ個別に設定してもよい。
 以下、コーナー位置の補正アルゴリズムの具体例(1)~(7)について説明する。
(1)補正アルゴリズム1
 補正アルゴリズム1では、隣り合う反射点間のベクトル距離の分散からコーナー部の曲率を推定し、この曲率を用いて最も端部の反射点からコーナー端点までの補正量を得る。
 図17は、コーナー位置の補正アルゴリズム1を説明するための図である。検出対象物2aにおける、距離センサの移動軌跡に平行な部分(例えば駐車車両の側面)では、駐車支援装置を搭載した車両の走行速度に応じた等しい間隔で反射点が得られる。
 一方、曲率のあるコーナー部は、複数のセンサ位置の距離センサから検出波を近接した領域で反射するため、反射点が密集する。
 従って、コーナー部の隣り合う反射点間の離隔距離(以下、ベクトル距離と称す)は、距離センサの移動軌跡に平行な部分における反射点間のベクトル距離よりも短くなる傾向にある。
 そこで、補正アルゴリズム1では、最も端部にある反射点D1を基準として、隣り合う反射点間のベクトル距離(d1,d2,d3,・・・,dn)を求め、ベクトル距離diが所定の閾値以下となる反射点群をコーナー部の反射点とする。ここで、上記の抽出した反射点データに基づき、下記式(3)を用いてベクトル距離の分散を算出する。また、daveは上記コーナー部の反射点群におけるベクトル距離の平均値である。
 分散s={(di-dave)の総和}/n   ・・・(3)
 次に、分散sに基づき下記式(3a)より、コーナー部の曲率半径Rを推定する。ここで、a1,c1は定数である。
 R=(a1/s)+c1   ・・・(3a)
 さらに、上述の式(1a)を用いて、推定した曲率半径Rより、コーナー部の位置座標を補正する。
(2)補正アルゴリズム2
 補正アルゴリズム2は、ベクトル距離の分散の代わりに、ベクトル距離の平均からコーナー部の曲率を推定し、この曲率を用いてコーナー部の位置座標を補正するものである。
 先ず、補正アルゴリズム1と同様に、最も端部にある反射点D1を基準として、隣り合う反射点間のベクトル距離(d1,d2,d3,・・・,dn)を求め、ベクトル距離diが所定の閾値以下となる反射点群をコーナー部の反射点とする。
 次に、上記コーナー部の反射点群におけるベクトル距離の平均値daveを算出し、平均値daveに基づき、下記式(3b)より、コーナー部の曲率半径Rを推定する。ここで、a2,c2は定数である。
 R=a2×dave+c2   ・・・(3b)
 さらに、上述の式(1a)を用いて、推定した曲率半径Rより、コーナー部の位置座標を補正する。
(3)補正アルゴリズム3
 補正アルゴリズム3では、コーナー部が円弧であると仮定して曲率半径Rを推定する。
 図18は、コーナー位置の補正アルゴリズム3を説明するための図である。先ず、最も端部の反射点D1を基準として、この反射点D1を含む近傍の少なくとも3つの反射点(図18の例ではD1~D3)を抽出する。
 反射点D1~D3がコーナー形状を近似する同一の円弧上にあると仮定し、反射点D1~D3の位置座標から上記円弧の曲率半径Rを算出する。
 同一円上の3点が定まれば、円の中心と半径が決定される。最も端部にある推定反射点近傍の3点の座標をそれぞれD1(x1,y1)、D2(x2,y2)、D3(x3,y3)として、A=x1-x2、B=y1-y2、C=x1+x2、D=y1+y2、E=x3-x2、F=y3-y2、G=x3+x2、H=y3+y2とおくと、中心座標C(xc,yc)は、下記式より求められる。
 xc={B(HF+GE)-F(CA+BD)}/{2(BE-AF)}
 yc={E(CA+BD)-A(HF+GE)}/{2(BE-AF)}
 次に、曲率半径Rは、下記式により求められる。
 R=√{(xc-x1)+(yc-y1)
 さらに、前述の式(1a)を用いて、推定した曲率半径Rより、コーナー位置座標を補正する。
(4)補正アルゴリズム4
 図19は、コーナー位置の補正アルゴリズム4及び後述の補正アルゴリズム5を説明するための図である。補正アルゴリズム4では、最も端部にある反射点D1が、検出対象物2aのセンサ移動軌跡に平行な部分から、どれくらい奥まった位置にあるかを算出し、これを基に補正量を算出する。
 図19に示すように、センサ移動方向にy軸を規定したxy座標を設定し、最も端部にある反射点D1の位置のx座標値と、検出対象物2aのセンサ移動軌跡に平行な部分のx座標値との差分値ΔVD(奥まり量)を算出し、この差分値ΔVDに基づき、下記式(1a-4)でコーナー位置補正量Ycnoffsetを決定し、コーナー位置座標を補正する。ここで、α,βは補正量の係数である。
 Ycnoffset=β×ΔVD+α   ・・・(1a-4)
(5)補正アルゴリズム5
 補正アルゴリズム5では、補正アルゴリズム4と同様に、最も端部にある反射点D1が、検出対象物2aのセンサ移動軌跡に平行な部分から、どれくらい奥まった位置にあるかを算出し、これを基に補正量を算出する。
 図19に示すように、センサ移動方向にy軸を規定したxy座標を設定し、最も端部にある反射点D1の位置のx座標値と、検出対象物2aのセンサ移動軌跡に平行な部分のx座標値との差分値ΔVD(奥まり量)を算出して、下記式(4)~(7)を用い補正量ΔYを算出する。ただし、曲率半径Rの円弧の中心に対する反射点D1の角度θは、反射点D1を推定する際に使用した2円の中心となったセンサ位置座標間の中点と反射点とを結ぶ直線の傾きから算出する。
 ΔVD=R-R・cosθ   ・・・(4)
 ΔY=R-R・sinθ   ・・・(5)
 R=ΔVD/(1-cosθ)   ・・・(6)
 θ=arctan(a)   ・・・(7)
 上記式(4)(5)(6)より、下記式(8)を求める。
 ΔY=(1-sinθ)/(1-cosθ)・ΔVD   ・・・(8)
 この値ΔYに基づき、下記式(1a-5)に従って、コーナー位置補正量Ycnoffsetを決定し、コーナー位置座標を補正する。ここで、α,βは補正量の係数である。
 Ycnoffset=β×ΔY+α   ・・・(1a-5)
(6)補正アルゴリズム6
 補正アルゴリズム6では、反射点推定部15で推定された反射点列を同一円上の点とみなしたとき、隣り合う反射点における曲率半径Rの円弧の中心に対する角度θの差分、すなわちΔθを基に曲率半径Rを推定する。
 図20は、コーナー位置の補正アルゴリズム6を説明するための図である。図20において、曲率半径Rの円弧の中心に対する反射点の角度θ1,θ2は、上述した補正アルゴリズム4と同様に、反射点を推定する際に使用した2円の中心となったセンサ位置座標間の中点と反射点とを結ぶ直線の傾きから算出する。
 最も端部の反射点D1を基準とした角度θの変化量Δθ1(=θ1-θ2)は、θが大きい領域では曲率半径Rが小さい程小さくなることから、Δθiの傾向を最も端部の反射点D1近傍の複数の反射点で求め、予め求めたΔθiの傾向と曲率半径Rとの対応関係から曲率半径Rを下記式(1a-6)で算出する。ここで、α,βは補正量の係数である。また、上記の傾向を示す関数F(θ)は、下記式(9)で求める。i=1~nである。
 F(θ)={1/(n-1)}Σ(Δθi)   ・・・(9)
 R=F(θ)×α+β   ・・・(1a-6)
 さらに、前述の式(1a)を用いて、推定した曲率半径Rより、コーナー位置座標を補正する。
 ただし、Δθを算出する範囲を最も端部の反射点D1近傍に限定するため、nの値は例えば3に設定する。
 また、検出対象物2aのセンサ移動軌跡に平行な部分を直線(図20中に破線で示す)とみなし、コーナー部を上記直線に接する円弧と考えると、理想的な直線とこれに接する円弧の場合であれば、Δθは直線と円弧の境界部分(図20中の反射点D4付近)においては、曲率半径Rが小さい程大きくなる。そこで、直線から円弧に形状が切り替わる最初の反射点を基準とした角度θの変化量Δθが最大値を基に曲率半径Rを算出してもよい。この場合には、上記式(9)におけるΔθの算出範囲は、例えばi=2~4、n=3に設定する。
(7)補正アルゴリズム7
 補正アルゴリズム7では、反射点列のセンサ移動軌跡に沿った方向の長さから小型障害物と大型障害物とを識別し、識別された小型障害物と大型障害物に対して、それぞれ別々のコーナー位置の補正量を適用する。
 図21は、コーナー位置の補正アルゴリズム7を説明するための図である。例えば、コーナー部の曲率半径Rが小さい検出対象物2a(図13(a)参照)であれば、検出点列のセンサ移動軌跡に沿った方向(図21中のy軸方向)の長さが、上記検出対象物2aの側面のセンサ移動軌跡に沿った方向の長さに相当するので、検出点列のy軸方向の長さで当該検出対象物2aのおおよその大きさを識別できる。
 しかしながら、図9(a)で示したような円筒形の小型の検出対象物2aでは、検出対象物2aの大きさに対して検出点が車両の走行方向に広く分布するため、検出点列から検出対象物2aの大きさを特定することができない。
 一方、図9(a)で説明したように、小型の検出対象物2aでは、反射点列が近接した領域に密集するため、反射点列のy軸方向の長さLRが、当該検出対象物2aのy軸方向の大きさに近くなる。すなわち、反射点列のy軸方向の長さLRによって小型の検出対象物2aと大型の検出対象物2aを識別することが可能である。
 そこで、補正アルゴリズム7では、反射点列のy軸方向の長さLRに応じて小型か大型かを識別し、識別された小型の検出対象物2aと大型の検出対象物2aに対してそれぞれ別々のコーナー位置の補正量を適用する。
 例えば、コーンやポールなどの小型検出対象物2aでは、小型検出対象物2aにおける一定領域に反射点が密集するため、反射点列のy軸方向の長さLRと検出対象物2aのy軸方向の大きさとがほぼ等しくなる。このため、反射点D1の位置からの補正量を小さく見積もり、補正量に関する所定閾値C1以下の値にする。
 一方、駐車車両などの大型検出対象物2aでは、大型検出対象物2aの側面の一定方向に反射点列が延伸するので、反射点列のy軸方向の長さLRで大型検出対象物2aのy軸方向の大きさを特定し、補正量として所定閾値C1を超える値を設定する。
(8)補正アルゴリズム8
 補正アルゴリズム8では、コーナー部における反射点列の重心からの各反射点の乖離距離の分散度に基づきコーナー部の曲率半径を推定し、この曲率半径を用いて最も端部の反射点からコーナー端点までの補正量を得る。
 図22は、コーナー位置の補正アルゴリズム8を説明するための図である。補正アルゴリズム8においては、コーナー部における各反射点D1~D4のx座標、y座標の平均値を算出し、この平均値の座標位置を重心として各反射点の当該重心位置からの乖離距離の分散度を下記式(10)から求める。
 ただし、反射点座標を(xi,yi)とし、コーナー部の全ての反射点座標の平均を重心座標(xave,yave)とし、dxi=xi-xave、dyi=yi-yaveである。iは1からコーナー部の反射点総数Nまでの数である。
 分散度σ7=√{(dxi+dyi)の総和}/N}   ・・・(10)
 反射点が密集している(分散度σ7が0に近い)場合は、コーナー部の曲率半径Rが小さく、分散度σ7が大きい場合は、コーナー部の曲率半径Rも大きくなる。この傾向を利用して、コーナー部の曲率半径Rを下記式(1a-7)で推定する。ここで、a7,c7は定数である。
 R=a7×σ7+c7   ・・・(1a-7)
 推定した曲率半径Rを用いて、前述の式(1a)に従い、コーナー位置を補正する。
 以上のように、この実施の形態2によれば、反射点推定部15で推定された反射点列の形態に基づいて、コーナー位置判定部16で判定されたコーナー位置座標を補正するコーナー位置補正部22を備えたので、より実用的な駐車スペース長の判定が可能である。
 この発明に係る駐車支援装置は、検出対象物に隣接した駐車スペース長を精度良く計測することができるので、縦列駐車又は並列駐車の駐車スペースを計測して運転者に自車の駐車可否を告知する駐車支援装置に好適である。

Claims (18)

  1.  検出波を照射し、検出対象物からの前記検出波の反射波を受信して前記検出対象物との距離を検出する距離センサ部と、
     自車両の車輪速を検出する車輪速センサ部と、
     前記検出対象物の側方を自車両で走行中に、前記距離センサ部及び前記車輪速センサ部の出力を入力し、前記車輪速センサ部で検出された車輪速から特定される自車両の移動距離に基づいて、自車両の移動に伴う前記距離センサ部の移動軌跡を示すセンサ位置データを生成するとともに、当該移動軌跡で移動する前記距離センサ部により距離が検出された検出点列を示す検出点データを取得するデータ取得部と、
     前記データ取得部で得られた検出点データから前記検出対象物のコーナー部に対応する検出点データを抽出するデータ抽出部と、
     前記データ抽出部で抽出された検出点データの検出点列を曲線近似し、近似した曲線に基づいてノイズ成分の検出点を判定し、前記検出点データから除去するノイズ成分除去部と、
     前記ノイズ成分除去部でノイズ成分が除去された検出点データの検出点列を曲線近似して、前記検出点データをデータ補完するデータ補完部と、
     前記データ補完部でデータ補完された検出点データ及び前記データ取得部で取得されたセンサ位置データに基づいて、前記検出対象物のコーナー部における前記検出波の反射点を推定する反射点推定部と、
     前記反射点推定部で推定された反射点の位置に基づいて、前記検出対象物のコーナー部の位置を判定するコーナー位置判定部と、
     前記コーナー位置判定部で判定されたコーナー部の位置に基づいて、前記検出対象物に隣接する駐車スペースの長さを計測し、自車両の駐車可否の判定結果を運転者に提示するスペース長判定部とを備えた駐車支援装置。
  2.  データ取得部は、計測開始の操作を契機として、距離センサ部及び車輪速センサ部の出力を蓄積開始し、自車両が一定の距離以上走行するまでの間に前記距離センサ部で距離が検出されない場合、前記車輪速センサ部で検出された車輪速の蓄積を一時停止し、前記距離センサ部で新たに距離が検出されると、前記車輪速センサ部で検出された車輪速の蓄積を再開することを特徴とする請求項1記載の駐車支援装置。
  3.  データ抽出部は、検出対象物の側方を走行する自車両の走行方向を座標軸とし、これに直交する座標軸を距離センサ部による距離検出方向とした地面に平行な2次元直交座標系において、検出点データの検出点列の隣接した検出点が対角線で結ばれる頂点となる矩形を想定し、前記対角線で分割した当該矩形の分割領域の面積比を所定の閾値と比較して、当該比較の結果から前記検出対象物のコーナー部に対応する検出点データを判定することを特徴とする請求項1記載の駐車支援装置。
  4.  データ抽出部は、検出対象物の側方を走行する自車両の走行方向を座標軸とし、これに直交する座標軸を距離センサ部による距離検出方向とした地面に平行な2次元直交座標系において、前記検出対象物のコーナー部を曲線近似するローパスフィルタ処理を検出点データに施したデータの点列と前記検出点データの検出点列との交点を探索し、前記交点の検出点を基準として前記コーナー部に対応する検出点データを判定することを特徴とする請求項1記載の駐車支援装置。
  5.  データ抽出部は、検出対象物の側方を走行する自車両の走行方向を座標軸とし、これに直交する座標軸を距離センサ部による距離検出方向とした地面に平行な2次元直交座標系において、前記検出対象物のコーナー部を曲線近似するローパスフィルタ処理を検出点データに施したデータの座標と前記検出点データの検出点の座標との差分値を所定の閾値と比較して、当該比較の結果から前記コーナー部に対応する検出点データを判定することを特徴とする請求項1記載の駐車支援装置。
  6.  ノイズ成分除去部は、検出対象物の側方を走行する自車両の走行方向を座標軸とし、これに直交する座標軸を距離センサ部による距離検出方向とした地面に平行な2次元直交座標系において、検出点データの検出点列を近似した曲線と前記検出点データの検出点列との前記距離検出方向の座標値の差の標準偏差に一定の係数を乗じた値を閾値として、前記標準偏差の値が前記閾値を超える検出点をノイズ成分と判定して除去することを特徴とする請求項1記載の駐車支援装置。
  7.  ノイズ成分除去部は、検出対象物の側方を走行する自車両の走行方向を座標軸とし、これに直交する座標軸を距離センサ部による距離検出方向とした地面に平行な2次元直交座標系において、検出点データの検出点列を近似した曲線と前記検出点データの検出点列との前記距離検出方向の座標値の差の標準偏差に対して第1の係数を乗じて第2の係数を加えた値を閾値とし、前記近似した曲線の内側と外側とで前記第1の係数及び前記第2の係数を固有値として、前記標準偏差の値が前記閾値を超える検出点をノイズ成分と判定して除去することを特徴とする請求項1記載の駐車支援装置。
  8.  データ補完部は、検出点列の最も端の検出点を基準として検出点とセンサ位置のそれぞれが自車両の走行方向に一定の間隔になるよう検出点データ及びセンサ位置データを変換することを特徴する請求項1記載の駐車支援装置。
  9.  反射点推定部は、検出対象物の側方を走行する自車両の走行方向を座標軸とし、これに直交する座標軸を距離センサ部による距離検出方向とした地面に平行な2次元直交座標系において、検出点データ及びセンサ位置データに基づいて各センサ位置を中心としセンサ位置から検出点までの距離を半径とする円をそれぞれ想定し、隣り合う検出点を通る2つの円の交点を反射点と推定することを特徴とする請求項1記載の駐車支援装置。
  10.  データ取得部は、
     自車両に近い第1の検出対象物と自車両から遠い第2の検出対象物との間の駐車スペースの長さを計測する場合、
     計測開始の操作時における自車両の位置を原点として、前記第1の検出対象物の側方を走行する自車両の走行方向を座標軸とし、これに直交する座標軸を距離センサ部による距離検出方向とした地面に平行な第1の2次元直交座標系におけるデータとして、検出点データ及びセンサ位置データを取得し、
     自車両の走行に伴って、前記距離センサ部で前記第1の検出対象物との距離が検出されなくなり、前記第2の検出対象物との距離が検出されると、
     その時点の自車両の位置を原点として、前記第2の検出対象物の側方を走行する自車両の走行方向を座標軸とし、これに直交する座標軸を前記距離センサ部による距離検出方向とした地面に平行な第2の2次元直交座標系におけるデータとして、検出点データ及びセンサ位置データを取得するとともに、
     前記第1の2次元直交座標系にて取得された検出点データ及びセンサ位置データを前記第1の2次元直交座標系から前記第2の2次元直交座標系への写像データに変換することを特徴とする請求項1記載の駐車支援装置。
  11.  反射点推定部で推定された反射点列の形態に基づいて、コーナー位置判定部で判定されたコーナー部の位置を、コーナー部の反射点の形態に基づき補正するコーナー位置補正部を備えたことを特徴とする請求項1記載の駐車支援装置。
  12.  コーナー位置補正部は、コーナー部で最も端にある反射点を基準に、自車両の走行方向に沿って得られる反射点列の長さに応じて補正することを特徴とする請求項11記載の駐車支援装置。
  13.  コーナー位置補正部は、コーナー部において隣り合う反射点間の乖離距離の分散値から当該コーナー部の曲率半径を推定し、推定した曲率半径に基づいて前記コーナー部で最も端にある反射点を基準にコーナー位置補正量を算出することを特徴とする請求項11記載の駐車支援装置。
  14.  コーナー位置補正部は、コーナー部において隣り合う反射点間の乖離距離の平均値から当該コーナー部の曲率半径を推定し、推定した曲率半径に基づいて前記コーナー部で最も端にある反射点を基準にコーナー位置補正量を算出することを特徴とする請求項11記載の駐車支援装置。
  15.  コーナー位置補正部は、コーナー部で最も端にある反射点を含む近傍の少なくとも3つの反射点を通る円の半径を前記コーナー部の曲率半径として算出し、算出した曲率半径に基づいて前記コーナー部で最も端にある反射点を基準にコーナー位置補正量を算出することを特徴とする請求項11記載の駐車支援装置。
  16.  コーナー位置補正部は、検出対象物の側方を走行する自車両の走行方向を座標軸とし、これに直交する座標軸を距離センサ部による距離検出方向とした地面に平行な2次元直交座標系において、コーナー部で最も端部にある反射点の位置の前記距離検出方向の座標と前記検出対象物の前記自車両の走行方向に平行な部分の前記距離検出方向の座標との差分値を算出し、算出した差分値に基づいて前記コーナー部で最も端にある反射点を基準にコーナー位置補正量を算出することを特徴とする請求項11記載の駐車支援装置。
  17.  コーナー位置補正部は、コーナー部における反射点列を同一円上の点とみなし、前記円の中心に対して反射点がなす角度の隣り合う反射点間での変化量を用いて前記円の曲率半径を算出し、算出した曲率半径に基づいて前記コーナー部で最も端にある反射点を基準にコーナー位置補正量を算出することを特徴とする請求項11記載の駐車支援装置。
  18.  コーナー位置補正部は、コーナー部における反射点列の重心位置からの各反射点の乖離距離の分散度に基づいて前記コーナー部の曲率半径を推定し、推定した曲率半径に基づいて前記コーナー部で最も端にある反射点を基準にコーナー位置補正量を算出することを特徴とする請求項11記載の駐車支援装置。
PCT/JP2009/004135 2009-08-26 2009-08-26 駐車支援装置 WO2011024220A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN200980161159.9A CN102483457B (zh) 2009-08-26 2009-08-26 停车辅助装置
DE112009005165.0T DE112009005165B4 (de) 2009-08-26 2009-08-26 Einparkunterstützungsvorrichtung
JP2011528511A JP5506803B2 (ja) 2009-08-26 2009-08-26 駐車支援装置
PCT/JP2009/004135 WO2011024220A1 (ja) 2009-08-26 2009-08-26 駐車支援装置
US13/318,441 US8686875B2 (en) 2009-08-26 2009-08-26 Parking support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/004135 WO2011024220A1 (ja) 2009-08-26 2009-08-26 駐車支援装置

Publications (1)

Publication Number Publication Date
WO2011024220A1 true WO2011024220A1 (ja) 2011-03-03

Family

ID=43627351

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/004135 WO2011024220A1 (ja) 2009-08-26 2009-08-26 駐車支援装置

Country Status (5)

Country Link
US (1) US8686875B2 (ja)
JP (1) JP5506803B2 (ja)
CN (1) CN102483457B (ja)
DE (1) DE112009005165B4 (ja)
WO (1) WO2011024220A1 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2481324A (en) * 2010-06-17 2011-12-21 Bosch Gmbh Robert Object detection and motion evaluation method for identifying parking space
JP2012027767A (ja) * 2010-07-26 2012-02-09 Nippon Soken Inc 駐車空間検出装置
JP2012194949A (ja) * 2011-03-18 2012-10-11 Nippon Soken Inc 駐車空間検出装置
JP2013108921A (ja) * 2011-11-24 2013-06-06 Panasonic Corp 超音波センサシステム
WO2014057621A1 (ja) * 2012-10-09 2014-04-17 株式会社デンソー 物体検知装置
WO2014125810A1 (ja) * 2013-02-15 2014-08-21 株式会社デンソー 障害物検知装置
WO2017060975A1 (ja) * 2015-10-06 2017-04-13 三菱電機株式会社 駐車形態判定装置
CN107923977A (zh) * 2015-09-11 2018-04-17 罗伯特·博世有限公司 用于获取道路区段的停车面积的方法
WO2018134913A1 (ja) * 2017-01-18 2018-07-26 三菱電機株式会社 駐車支援装置
WO2019058578A1 (ja) * 2017-09-19 2019-03-28 クラリオン株式会社 測位支援装置
WO2019215788A1 (ja) * 2018-05-07 2019-11-14 三菱電機株式会社 駐車支援装置
WO2020003759A1 (ja) * 2018-06-28 2020-01-02 日立オートモティブシステムズ株式会社 検知装置
CN111025300A (zh) * 2018-10-10 2020-04-17 上海汽车集团股份有限公司 一种车位长度的测量方法及装置
WO2021200679A1 (ja) * 2020-04-02 2021-10-07 株式会社デンソー 立体物検出装置
JPWO2021038740A1 (ja) * 2019-08-28 2021-11-25 三菱電機株式会社 障害物検知装置
WO2023026875A1 (ja) * 2021-08-26 2023-03-02 株式会社デンソー 物体認識装置

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI464085B (zh) * 2011-07-22 2014-12-11 Automotive Res & Testing Ct Parking space detection method
CN103544847B (zh) * 2012-07-12 2016-12-21 上海市南电信服务中心有限公司 一种基于zigbee和lbs的移动停车信息引导***
DE102013109808A1 (de) * 2013-09-09 2015-03-12 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Batterieanordnung
EP3101386B1 (en) 2014-01-30 2017-11-22 Nissan Motor Co., Ltd Parking assist system
KR101521842B1 (ko) 2014-08-27 2015-05-20 현대모비스 주식회사 주차 공간 탐색 장치 및 그 탐색 방법
JP5843948B1 (ja) * 2014-11-27 2016-01-13 三菱電機株式会社 駐車支援装置および駐車支援方法
DE102014224541A1 (de) * 2014-12-01 2016-06-02 Zf Friedrichshafen Ag Vermessung eines Anhängers
JP6278920B2 (ja) 2015-03-23 2018-02-14 三菱電機株式会社 駐車支援装置
WO2017145364A1 (ja) * 2016-02-26 2017-08-31 三菱電機株式会社 駐車支援装置および駐車支援方法
DE102016209810A1 (de) * 2016-06-03 2017-12-07 Robert Bosch Gmbh Verfahren zur Erkennung wenigstens einer Parklücke für ein Fahrzeug
JP6609237B2 (ja) * 2016-11-17 2019-11-20 株式会社デンソー 衝突判定装置、及び衝突判定方法
DE112017006255B4 (de) * 2017-01-18 2020-07-16 Mitsubishi Electric Corporation Parkassistenzvorrichtung
DE102018108572B4 (de) * 2017-04-12 2023-05-04 Toyota Jidosha Kabushiki Kaisha Spurwechselunterstützungsvorrichtung für ein fahrzeug
KR101964919B1 (ko) * 2017-05-26 2019-08-13 주식회사 만도 주차 제어 장치 및 그 방법
CN108297876B (zh) * 2017-08-22 2019-09-17 腾讯科技(深圳)有限公司 行驶速度控制方法、装置、计算机设备和存储介质
CN107677347B (zh) * 2017-09-19 2019-06-25 余姚太平洋称重工程有限公司 静态轨道衡车辆停车位置检测方法
KR102429494B1 (ko) * 2017-10-13 2022-08-05 현대자동차주식회사 차량의 목표주차공간 표시 장치 및 그 방법
US11073828B2 (en) * 2017-12-08 2021-07-27 Samsung Electronics Co., Ltd. Compression of semantic information for task and motion planning
TWI656519B (zh) * 2017-12-12 2019-04-11 財團法人工業技術研究院 停車導引系統及其方法與自動停車系統
WO2019171441A1 (ja) * 2018-03-05 2019-09-12 三菱電機株式会社 情報処理装置、情報処理方法及び情報処理プログラム
CN110660236A (zh) * 2018-06-29 2020-01-07 比亚迪股份有限公司 空闲车位广播***和方法及车辆和存储介质
CN109581391A (zh) * 2018-12-28 2019-04-05 广州小鹏汽车科技有限公司 一种停车位置的确定方法及停车位位置确定装置
JPWO2020217315A1 (ja) * 2019-04-23 2021-12-02 三菱電機株式会社 駐車支援装置および駐車支援方法
CN110232835B (zh) * 2019-06-27 2020-11-13 浙江工业大学 一种基于图像处理的地下车库停车位检测方法
JP7162142B2 (ja) * 2019-08-02 2022-10-27 日立Astemo株式会社 エイミング装置、運転制御システム、及びセンサデータの補正量の計算方法
CN110444044B (zh) * 2019-08-27 2022-07-12 纵目科技(上海)股份有限公司 基于超声波传感器的车辆位姿检测***、终端和存储介质
CN112440980B (zh) * 2019-08-29 2021-11-12 比亚迪股份有限公司 泊车位的检测方法、装置、存储介质及车辆
DE102019214111A1 (de) * 2019-09-17 2021-03-18 Robert Bosch Gmbh Klassifikation von statischen und dynamischen Objekten
CN110618420A (zh) * 2019-10-15 2019-12-27 广州小鹏汽车科技有限公司 一种超声波数据的处理方法、***、车辆及存储介质
CN110796063B (zh) * 2019-10-24 2022-09-09 百度在线网络技术(北京)有限公司 用于检测车位的方法、装置、设备、存储介质以及车辆
CN115206130B (zh) * 2022-07-12 2023-07-18 合众新能源汽车股份有限公司 一种车位检测方法、***、终端及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002277534A (ja) * 2001-03-21 2002-09-25 Toshiba Corp 標定レーダ装置および標定位置算出方法
JP2006007875A (ja) * 2004-06-23 2006-01-12 Denso Corp 駐車支援装置
JP2007071536A (ja) * 2005-09-02 2007-03-22 Toyota Motor Corp 物体検出装置および物体検出方法
JP2008021039A (ja) * 2006-07-11 2008-01-31 Toyota Motor Corp 駐車空間検出装置
JP2009126495A (ja) * 2007-11-28 2009-06-11 Mitsubishi Electric Corp 駐車支援装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04123259A (ja) 1990-09-14 1992-04-23 Hitachi Ltd 文書作成装置
JP2007131169A (ja) * 2005-11-10 2007-05-31 Nippon Soken Inc 駐車スペース検出装置
JP2007139665A (ja) * 2005-11-21 2007-06-07 Toyota Motor Corp 物体検出装置および物体検出方法
KR101104609B1 (ko) * 2007-10-26 2012-01-12 주식회사 만도 차량의 목표주차위치 인식 방법 및 그 시스템
JP5008529B2 (ja) * 2007-10-31 2012-08-22 三菱電機株式会社 駐車支援装置
JP4706711B2 (ja) * 2008-03-25 2011-06-22 パナソニック電工株式会社 駐車空間監視装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002277534A (ja) * 2001-03-21 2002-09-25 Toshiba Corp 標定レーダ装置および標定位置算出方法
JP2006007875A (ja) * 2004-06-23 2006-01-12 Denso Corp 駐車支援装置
JP2007071536A (ja) * 2005-09-02 2007-03-22 Toyota Motor Corp 物体検出装置および物体検出方法
JP2008021039A (ja) * 2006-07-11 2008-01-31 Toyota Motor Corp 駐車空間検出装置
JP2009126495A (ja) * 2007-11-28 2009-06-11 Mitsubishi Electric Corp 駐車支援装置

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2481324A (en) * 2010-06-17 2011-12-21 Bosch Gmbh Robert Object detection and motion evaluation method for identifying parking space
GB2481324B (en) * 2010-06-17 2017-06-14 Bosch Gmbh Robert Parking assistance system for transverse parking spaces
JP2012027767A (ja) * 2010-07-26 2012-02-09 Nippon Soken Inc 駐車空間検出装置
JP2012194949A (ja) * 2011-03-18 2012-10-11 Nippon Soken Inc 駐車空間検出装置
JP2013108921A (ja) * 2011-11-24 2013-06-06 Panasonic Corp 超音波センサシステム
WO2014057621A1 (ja) * 2012-10-09 2014-04-17 株式会社デンソー 物体検知装置
JP2014078086A (ja) * 2012-10-09 2014-05-01 Nippon Soken Inc 物体検知装置
WO2014125810A1 (ja) * 2013-02-15 2014-08-21 株式会社デンソー 障害物検知装置
JP2014157501A (ja) * 2013-02-15 2014-08-28 Nippon Soken Inc 障害物検知装置
CN107923977A (zh) * 2015-09-11 2018-04-17 罗伯特·博世有限公司 用于获取道路区段的停车面积的方法
WO2017060975A1 (ja) * 2015-10-06 2017-04-13 三菱電機株式会社 駐車形態判定装置
JPWO2017060975A1 (ja) * 2015-10-06 2018-02-01 三菱電機株式会社 駐車形態判定装置
WO2018134913A1 (ja) * 2017-01-18 2018-07-26 三菱電機株式会社 駐車支援装置
JPWO2018134913A1 (ja) * 2017-01-18 2019-08-08 三菱電機株式会社 駐車支援装置
US11142187B2 (en) 2017-01-18 2021-10-12 Mitsubishi Electric Corporation Parking assistance device
WO2019058578A1 (ja) * 2017-09-19 2019-03-28 クラリオン株式会社 測位支援装置
WO2019215788A1 (ja) * 2018-05-07 2019-11-14 三菱電機株式会社 駐車支援装置
JPWO2019215788A1 (ja) * 2018-05-07 2021-01-07 三菱電機株式会社 駐車支援装置
JP7034271B2 (ja) 2018-05-07 2022-03-11 三菱電機株式会社 駐車支援装置
WO2020003759A1 (ja) * 2018-06-28 2020-01-02 日立オートモティブシステムズ株式会社 検知装置
CN112166344A (zh) * 2018-06-28 2021-01-01 日立汽车***株式会社 检测装置
JP2020003351A (ja) * 2018-06-28 2020-01-09 日立オートモティブシステムズ株式会社 検知装置
CN112166344B (zh) * 2018-06-28 2023-07-28 日立安斯泰莫株式会社 检测装置
CN111025300A (zh) * 2018-10-10 2020-04-17 上海汽车集团股份有限公司 一种车位长度的测量方法及装置
CN111025300B (zh) * 2018-10-10 2023-03-21 上海汽车集团股份有限公司 一种车位长度的测量方法及装置
JPWO2021038740A1 (ja) * 2019-08-28 2021-11-25 三菱電機株式会社 障害物検知装置
JP7195447B2 (ja) 2019-08-28 2022-12-23 三菱電機株式会社 障害物検知装置
WO2021200679A1 (ja) * 2020-04-02 2021-10-07 株式会社デンソー 立体物検出装置
JP2021162528A (ja) * 2020-04-02 2021-10-11 株式会社Soken 立体物検出装置
JP7287331B2 (ja) 2020-04-02 2023-06-06 株式会社Soken 立体物検出装置
WO2023026875A1 (ja) * 2021-08-26 2023-03-02 株式会社デンソー 物体認識装置
JP7506643B2 (ja) 2021-08-26 2024-06-26 株式会社デンソー 物体認識装置、及びプログラム

Also Published As

Publication number Publication date
DE112009005165B4 (de) 2016-01-28
JPWO2011024220A1 (ja) 2013-01-24
DE112009005165T5 (de) 2012-09-13
CN102483457B (zh) 2014-05-21
US8686875B2 (en) 2014-04-01
US20120062396A1 (en) 2012-03-15
JP5506803B2 (ja) 2014-05-28
CN102483457A (zh) 2012-05-30

Similar Documents

Publication Publication Date Title
JP5506803B2 (ja) 駐車支援装置
CN109649384B (zh) 一种泊车辅助方法
EP3392093B1 (en) Parking support method and device
EP3431926B1 (en) Road surface shape measuring device, measuring method, and program
US11300415B2 (en) Host vehicle position estimation device
WO2017104163A1 (ja) 駐車支援方法および装置
WO2018207782A1 (ja) 駐車空間検出装置
US20130110391A1 (en) Apparatus for estimating travel path of a vehicle
US11052907B2 (en) Parking control device and parking control method
JP2008201178A (ja) 駐車支援装置
JPH09281239A (ja) 車両の周辺監視装置
JP6413902B2 (ja) 駐車支援装置
WO2021002219A1 (ja) 車両制御装置
JP2007139665A (ja) 物体検出装置および物体検出方法
JP2002228734A (ja) 周囲物体認識装置
KR20150106200A (ko) 차량 레이더 오차 보정 시스템 및 그 방법
JP4646045B2 (ja) 駐車支援装置
JP6848725B2 (ja) 車両用の対象物検出装置および車両用の対象物検出装置における水平方向の軸ずれ判定方法
JP4645542B2 (ja) 駐車空間検出装置
JP6314655B2 (ja) 標示線検出装置、標示線検出方法
JP6841331B2 (ja) 車両駐車支援装置、車両駐車支援プログラム
JP2003270344A (ja) 車両用駐車方向設定装置
JP2003308599A (ja) 走行路環境検出装置
KR101734726B1 (ko) 주차공간 탐지 방법 및 이를 실행하는 장치
JP2011248532A (ja) 先行車検出装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980161159.9

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09848672

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011528511

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13318441

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1120090051650

Country of ref document: DE

Ref document number: 112009005165

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09848672

Country of ref document: EP

Kind code of ref document: A1