WO2023248468A1 - 駐車支援方法及び駐車支援装置 - Google Patents

駐車支援方法及び駐車支援装置 Download PDF

Info

Publication number
WO2023248468A1
WO2023248468A1 PCT/JP2022/025333 JP2022025333W WO2023248468A1 WO 2023248468 A1 WO2023248468 A1 WO 2023248468A1 JP 2022025333 W JP2022025333 W JP 2022025333W WO 2023248468 A1 WO2023248468 A1 WO 2023248468A1
Authority
WO
WIPO (PCT)
Prior art keywords
parking
target
vehicle
parking lot
data
Prior art date
Application number
PCT/JP2022/025333
Other languages
English (en)
French (fr)
Inventor
康啓 鈴木
祐介 武者
真都 松本
僚大 山中
Original Assignee
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社 filed Critical 日産自動車株式会社
Priority to PCT/JP2022/025333 priority Critical patent/WO2023248468A1/ja
Publication of WO2023248468A1 publication Critical patent/WO2023248468A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas

Definitions

  • the present invention relates to a parking assistance method and a parking assistance device.
  • Patent Document 1 discloses that a target is extracted and stored from an image taken in the past around a target parking position, and extracted from the stored target position and an image taken around the own vehicle during automatic parking.
  • a driving control device is described that calculates the relative position of a target parking position with respect to the own vehicle based on the position of a target object, and automatically moves the own vehicle to the target parking position based on the calculated relative position.
  • the present invention provides parking assistance in which targets near the target parking position are stored in advance to assist the parking of the own vehicle at the target parking position. The purpose is to be able to park cars.
  • a parking support method that supports parking of the own vehicle at a target parking position.
  • data representing the relative positional relationship between targets existing around the target parking position and the target parking position is stored in advance in a storage device as learned target data, Detects the positions of surrounding targets that are targets, calculates the relative positional relationship between the target parking position and the current position of the own vehicle based on the learned target data and the positions of the surrounding targets, and calculates the relative positional relationship between the target parking position and the current position of the own vehicle.
  • a driving trajectory from the current position of the own vehicle to the target parking position is calculated based on the relative positional relationship with the current position of the own vehicle, and parking of the own vehicle at the target parking position is supported based on the driving trajectory.
  • the parking assistance method determines whether the vehicle is located in a first type of parking lot having a plurality of parking spaces or near a second type of parking lot where a single vehicle can be parked; When it is determined that the own vehicle is located in the first type of parking lot, when the own vehicle parks in the target parking lot, which is any one of the plurality of parking sections, the parking lot that is common to the plurality of parking sections.
  • Data representing the relative positional relationship between the target indicating that the target parking lot is located in the parking lot and the parking position in the target parking lot is stored in the storage device as learned target data, and the data representing the relative positional relationship between the target indicating that the vehicle is in the parking lot and the parking position in the target parking lot is stored in the storage device as learned target data. If it is determined that the vehicle is located in the second type of parking lot, data representing the relative positional relationship between the target object detected near the second type of parking lot and the target parking position when the own vehicle is parked in the second type of parking lot is used as a learned target. Store it in a storage device as data.
  • the vehicle in parking support that stores targets near the target parking position in advance and supports parking of the own vehicle at the target parking position, when there are multiple parking bays in the parking lot, the vehicle can be parked in any parking bay. Vehicles can be parked.
  • FIG. 1 is a diagram illustrating an example of a schematic configuration of a parking assistance device.
  • FIG. 3 is an explanatory diagram of a first example of processing for storing learned target data.
  • FIG. 2 is an explanatory diagram of a first example of processing when implementing parking assistance.
  • FIG. 2 is an explanatory diagram of an example of a method of detecting a parking lot.
  • FIG. 3 is an explanatory diagram of a first example of processing for storing learned target data.
  • FIG. 7 is an explanatory diagram of a second example of processing when implementing parking assistance.
  • FIG. 2 is a block diagram of an example of the functional configuration of the controller in FIG. 1.
  • 2 is a schematic diagram of an example of a local region including a pattern representing a parking stall; 12 is a flowchart of an example of storage processing of learned target data. It is a flowchart of a first example of processing when implementing parking assistance. It is a flowchart of a second example of processing when parking assistance is implemented.
  • the own vehicle 1 includes a parking support device 10 that supports parking of the own vehicle 1 at a target parking position.
  • the parking support device 10 supports the vehicle 1 to travel along a target travel trajectory from the current position to the target parking position.
  • automatic driving may be performed in which the vehicle 1 is controlled to travel along the target travel trajectory of the vehicle 1 to the target parking position.
  • Automated driving that controls the own vehicle 1 to travel along a target travel trajectory to the target parking position refers to automatic driving that controls all or part of the steering angle, driving force, and braking force of the own vehicle 1 to control that automatically executes all or part of the vehicle's travel along the target travel trajectory.
  • parking of the own vehicle 1 may be supported by displaying the target travel trajectory and the current position of the own vehicle 1 on a display device that can be viewed by the occupants of the own vehicle 1.
  • the positioning device 11 measures the current position of the own vehicle 1.
  • the positioning device 11 includes, for example, a global positioning system (GNSS) receiver.
  • a map database (map DB) 12 stores map data.
  • the map data stored in the map database 12 may be, for example, high-precision map data suitable as navigation map data or a map for automatic driving.
  • the map data includes information on the locations and ranges of parking lots installed at facilities such as companies, hospitals, stores, apartment complexes, and public facilities.
  • the human machine interface (HMI) 13 is an interface device that exchanges information between the parking assist device 10 and the occupant.
  • the HMI 13 includes a display device, a speaker, a buzzer, and an operator that are visible to the occupants of the own vehicle 1.
  • the shift switch (shift SW) 14 is a switch used by the driver or the parking assist device 10 to change the shift position of the own vehicle 1.
  • the external sensor 15 detects objects within a predetermined distance from the own vehicle 1.
  • the external sensor 15 detects the surrounding environment of the own vehicle 1, such as the relative position of the own vehicle 1 and objects existing around the own vehicle 1, the distance between the own vehicle 1 and the object, and the direction in which the object exists.
  • the external sensor 15 may include, for example, a camera that photographs the surrounding environment of the own vehicle 1. In the following description, the camera included in the external world sensor 15 will be simply referred to as a "camera”.
  • the external sensor 15 may include a distance measuring device such as a laser range finder, radar, or LiDAR (Light Detection and Ranging).
  • the vehicle sensor 16 detects various information (vehicle information) about the own vehicle 1.
  • vehicle information vehicle information
  • the vehicle sensor 16 includes, for example, a vehicle speed sensor that detects the running speed of the host vehicle 1, a wheel speed sensor that detects the rotational speed of each tire included in the host vehicle 1, and an acceleration (including deceleration) of the host vehicle 1 in three axial directions. ), a steering angle sensor that detects the steering angle, a turning angle sensor that detects the turning angle of the turning wheels, a gyro sensor, and a yaw rate sensor.
  • the controller 17 is an electronic control unit that performs parking assistance control for the own vehicle 1.
  • the controller 17 includes a processor 20 and peripheral components such as a storage device 21.
  • the processor 20 may be, for example, a CPU or an MPU.
  • the storage device 21 may include a semiconductor storage device, a magnetic storage device, an optical storage device, or the like.
  • the functions of the controller 17 described below are realized, for example, by the processor 20 executing a computer program stored in the storage device 21.
  • the controller 17 may be formed of dedicated hardware for executing each information process described below.
  • the steering actuator 19a controls the steering direction and amount of steering of the steering mechanism of the own vehicle 1 according to a control signal from the controller 17.
  • the accelerator actuator 19b controls the accelerator opening degree of a drive device such as an engine or a drive motor in accordance with a control signal from the controller 17.
  • the brake actuator 19c operates a braking device in response to a control signal from the controller 17.
  • data representing the relative positional relationship between the target parking position and targets existing around the target parking position which is the position where the own vehicle 1 is parked, is stored in advance.
  • the information is stored in the device 21.
  • data representing the relative positional relationship between the target object and the target parking position to be stored in the storage device 21 may be referred to as "learned target data.”
  • the external sensor 15 may detect targets around the target parking position.
  • the external sensor 15 may detect targets around the vehicle 1 .
  • the external sensor 15 may detect targets around the own vehicle 1 while the own vehicle 1 is parked at the target parking position.
  • the target object may be detected from an image of the surroundings of the own vehicle 1 taken by a camera, or the target object around the own vehicle 1 may be detected by a distance measuring device.
  • the learned target data stored in the storage device 21 includes data representing the characteristics of the detected target (sometimes referred to as "target characteristic data” in the following explanation) and the relationship between the target and the target parking position.
  • the data may include data on the relative positional relationship between the two (sometimes referred to as "relative position data" in the following explanation).
  • FIGS. 2A and 3A are explanatory diagrams of processing examples for storing learned target data.
  • the occupant operates a "parking position learning switch" prepared as an operator of the HMI 13, for example.
  • the controller 17 calculates the location of the own vehicle 1 in a parking lot (sometimes referred to as a "first type of parking lot” in the following explanation) having multiple parking sections. It is determined whether the host vehicle is located near a parking lot (sometimes referred to as a "second type parking lot” in the following explanation) where a single vehicle can be parked.
  • An example of the first type of parking lot is a parking lot installed at a facility such as a company, a hospital, a store, an apartment complex, or a public facility.
  • An example of the second type of parking lot is a parking lot installed in a private residence, for example.
  • the parking lot shown in FIG. 2A is a first type parking lot having a plurality of parking bays 30a to 30d.
  • the parking lot 30c is an example of a "target parking lot" described in the claims.
  • the controller 17 uses a three-dimensional object such as a road marking (for example, a white line indicating the frame of the parking lot) indicating the parking lot 30c attached to the road surface of the parking lot or a wheel stop as a target indicating that the parking lot 30c is a parking lot. Characteristics of a target object, which is an object, are detected from an image around the host vehicle 1 taken by a camera.
  • the controller 17 stores target object feature data representing the characteristics of the detected road markings and relative position data between the detected road markings and the target parking position in the parking lot in the storage device 21 as learned target data.
  • the controller 17 may store the detected road marking pattern 32 in the storage device 21 as target characteristic data.
  • relative position data between the parking position Pr when the own vehicle 1 is parked in the parking lot 30c and the pattern 32 may be stored in the storage device 21.
  • the coordinates on the vehicle coordinate system i.e., the coordinate system based on the current position of the host vehicle 1
  • the road marking detected when the host vehicle 1 is parked in the parking lot 30c are stored as relative position data. good.
  • the road marking pattern 32 representing a parking lot may be referred to as a "road surface pattern.”
  • the controller 17 extracts a partial image of a local area including the whole or part of a road marking representing a single parking lot from an image taken by a camera around the own vehicle 1, and stores it as a road surface pattern 32. 21.
  • the controller 17 transmits local information representing the characteristics of the road marking for each parking lot out of the road markings of the entire parking lot to target objects. It is stored in the storage device 21 as characteristic data.
  • a local road surface pattern 32 representing road surface markings for each parking section is stored in the storage device 21 .
  • the controller 17 determines whether or not the road surface pattern 32 has a feature common to the plurality of parking sections 30a to 30d that indicates that the plurality of parking sections 30a to 30d is a parking section. If it is a parking lot, the road surface pattern 32 is stored. For example, the controller 17 determines whether or not a plurality of consecutive road surface patterns 32 exist in an image taken by a camera of the surroundings of the own vehicle 1, and determines whether a plurality of road surface patterns 32 are present in a row in common among the plurality of parking spaces 30a to 30d. It may be determined whether the feature represents a certain thing.
  • the parking lot shown in FIG. 3A is a second type of parking lot and has a parking space 40 in which a single vehicle can be parked.
  • the parking space 40 is stored in the storage device 21 as the parking target position.
  • the controller 17 determines whether the vehicle 1 is parked based on an image taken around the vehicle 1 by a camera when the vehicle 1 is located near the parking space 40 (for example, when an occupant manually parks the vehicle 1 in the parking space 40).
  • Targets around the space 40 are detected.
  • the controller 17 may detect feature points on the image as targets around the parking space 40.
  • the edge points or shapes where the brightness of adjacent pixels changes by more than a predetermined amount are characterized.
  • the provided points may be detected as feature points.
  • the controller 17 stores target feature data representing characteristics of the target detected in a predetermined area 42 around the parking space 40 in the storage device 21 as learned target data.
  • the controller 17 may store the detected feature points and feature amounts of the detected target in the storage device 21 as target feature data.
  • the controller 17 also stores relative position data between the parking space 40, which is the parking target position, and the target object in the storage device 21 as learned target data.
  • the circle plots schematically represent targets stored as learned target data.
  • map coordinate system When storing relative position data between the target and the parking space 40, for example, the coordinates of the target and the parking space 40 on a coordinate system (hereinafter referred to as "map coordinate system") with a fixed point as the reference point are stored. You may memorize it. In this case, the current position on the map coordinate system measured when the own vehicle 1 is located in the parking space 40 may be stored as the position of the parking space 40. Furthermore, instead of the map coordinate system, the relative positions of the parking spaces 40 with respect to each target object may be stored.
  • the predetermined area 42 in which the learned target data is stored may be, for example, an area with a length of one side or a diameter of about 20 m to 30 m.
  • the entire target data (feature points) in a relatively wide area including the parking space 40 is stored.
  • the arrangement pattern is stored in the storage device 21.
  • a local pattern representing the target (road marking) in a relatively narrow range corresponding to one parking lot is stored. It is stored in the device 21. That is, the first range in which targets are stored in the first type of parking lot is smaller than the second range in which targets are stored in the second type of parking lot.
  • FIG. 2B is an explanatory diagram of an example of processing when implementing parking assistance in a first type of parking lot.
  • the controller 17 performs parking assistance for the own vehicle 1 when the own vehicle 1 is located in a first type of parking lot and a predetermined parking assistance start condition is satisfied. For example, the controller 17 determines whether or not the own vehicle 1 is located in a first type of parking lot based on the current position of the own vehicle 1 measured by the positioning device 11 and the parking lot information stored in the map DB 12. may be determined. The controller 17 determines, as a condition for starting parking assistance, whether or not the occupant performs a shift operation to switch the vehicle 1 between moving forward and backward while the vehicle 1 is located in the first type of parking lot. do.
  • the controller 17 determines that a shift operation for switching back has been performed, and provides parking assistance. You may start.
  • the controller 17 may determine whether or not the occupant has operated a "parking assistance activation switch" provided in the HMI 13 as a condition for starting parking assistance, and may start parking assistance when the parking assistance activation switch is operated. .
  • the controller 17 stores images taken by a camera of the surroundings of the own vehicle 1 while traveling along a trajectory 34 on a drive aisle 33 in the first type of parking lot, thereby determining the surroundings of the own vehicle 1.
  • An image of area 35 (surrounding image) is generated.
  • the controller 17 selects an area on the surrounding image that includes a target having a feature similar to target feature data stored as learned target data (i.e., target feature data of a target indicating that it is a parking lot). By this detection, one or more parking spaces 36a to 36c existing around the own vehicle 1 are detected.
  • the parking bays 36a to 36c are detected by detecting, from the surrounding image, an area that includes a road surface marking similar to the road surface pattern 32 that indicates that the parking bays are a parking bay in common among the plurality of parking bays 36a to 36c.
  • the parking spaces 36a to 36c are examples of "surrounding objects" described in the claims.
  • the controller 17 may detect the parking sections 36a to 36c by template matching the surrounding images using the road surface pattern 32 as a template. For example, the controller 17 may scan the road surface pattern 32 on the surrounding image, calculate the degree of similarity between the road surface pattern 32 and the surrounding image at each position on the surrounding image, and detect an area where the degree of similarity is greater than or equal to a threshold value.
  • FIG. 2C is an explanatory diagram of an example of a parking lot detection method. For example, by setting the extending direction of the roadway 33 as the main scanning direction, and changing the position in the sub-scanning direction each time one main scanning is completed, the road surface pattern 33 is displayed on the surrounding image of the surrounding area 35 of the own vehicle 1. to be scanned.
  • the similarity between the road surface pattern 32 and the surrounding image at each position on the surrounding image is calculated, and the positions Pfa, Pfb, and Pfc where the similarity is equal to or higher than the threshold Th are detected as the positions of the parking sections 36a to 36c. do.
  • the controller 17 selects a parking lot in which the own vehicle 1 is to be parked from among the detected parking spots 36a to 36c. For example, the controller 17 displays the detected parking spaces 36a to 36c on the HMI 13 to present parking space candidates to the occupant, and by accepting a selection input from the occupant to select one of these parking space candidates, the controller 17 displays the detected parking spaces 36a to 36c on the HMI 13. You may select a parking lot in which to park 1. Also, for example, the controller 17 may select a parking lot where the vehicle can be parked along the shortest travel route. Here, it is assumed that the parking section 36c is selected.
  • the controller 17 When the parking lot 36c in which the host vehicle 1 is to be parked is selected, the controller 17 generates relative position data (i.e., The relative position of the host vehicle 1 with respect to the target parking position is calculated based on the relative position data between the road surface marking representing the parking lot and the target parking position. For example, relative position data between the detected position of the parking lot 36c, the parking position Pr when the own vehicle 1 is parked in the parking lot 30c, and the road marking of the parking lot 30c, which is stored as learned target data. The relative position of the own vehicle 1 with respect to the target parking position is calculated based on .
  • the controller 17 calculates a target traveling trajectory 37 from the current position of the own vehicle 1 to the target parking position based on the relative position of the own vehicle 1 with respect to the target parking position. Then, parking support control for the host vehicle 1 is performed based on the calculated target travel trajectory.
  • FIG. 3B is an explanatory diagram of an example of processing when implementing parking assistance in a second type of parking lot.
  • the controller 17 is located near the parking space (that is, the target parking position) 40, and performs parking assistance for the host vehicle 1 when the above-mentioned parking assistance start condition is satisfied.
  • the controller 17 detects targets around the own vehicle 1 from a surrounding image obtained by photographing the surroundings of the own vehicle 1 with a camera.
  • the targets around the host vehicle 1 that are extracted when performing parking assistance are other examples of the "surrounding targets" described in the claims.
  • the triangular plot represents surrounding targets.
  • the controller 17 matches the learned target data stored in the storage device 21 with surrounding targets, and associates the same targets with each other.
  • the controller 17 determines the relative positional relationship between the surrounding targets detected at the time of implementing parking assistance and the own vehicle 1, and the relationship between the target parking position 40 and the target of the learned target data associated with the surrounding targets.
  • the relative position of the host vehicle 1 with respect to the target parking position 40 (that is, the relative position of the host vehicle 1 with respect to the target parking position) is calculated based on the relative positional relationship of the host vehicle 1 with respect to the target parking position 40.
  • the controller 17 may calculate the position of the target parking position 40 on the vehicle coordinate system.
  • the coordinates of the target and the coordinates of the target parking position 40 are expressed as coordinates on the map coordinate system in the learned target data
  • the coordinates on the vehicle coordinate system of the surrounding targets detected during parking assistance Based on the coordinates of the target in the learned target data in the map coordinate system, the coordinates of the target parking position 40 on the map coordinate system may be converted to coordinates on the vehicle coordinate system.
  • the current position of the own vehicle 1 on the map coordinate system can be determined based on the coordinates on the vehicle coordinate system of the surrounding targets detected during parking assistance and the coordinates on the map coordinate system of the targets in the learned target data.
  • the relative position of the vehicle 1 with respect to the target parking position 40 may be calculated from the difference between the coordinates of the vehicle 1 and the coordinates of the target parking position 40 in the map coordinate system.
  • the controller 17 calculates a target traveling trajectory 44 from the current position 43 of the own vehicle 1 to the target parking position 40 based on the relative position of the own vehicle 1 with respect to the target parking position 40 . Then, based on the calculated target travel trajectory 44, parking support control for the host vehicle 1 is performed.
  • the HMI control unit 50 When the parking position learning switch is operated by the occupant, the HMI control unit 50 outputs a map generation command to the map generation unit 56 to cause the learned target data to be stored in the storage device 21 .
  • the HMI control unit 50 determines whether or not the occupant has performed a shift operation for turning, and outputs the determination result to the parking assistance control unit 51. Further, when it is detected that the parking assistance activation switch of the HMI 13 has been operated by the occupant, the detection result is output to the parking assistance control section 51.
  • the parking assistance control unit 51 determines whether or not to start parking assistance control. For example, when the parking lot type determination unit 54 (described later) determines that the vehicle is located in a first type of parking lot and the above-mentioned parking assistance start condition is satisfied, parking assistance control is started. Alternatively, the parking assistance control unit 51 determines whether or not the host vehicle 1 is located near the second type of parking lot stored as the target parking position. For example, it is determined whether the distance between the host vehicle 1 and the second type of parking lot is less than or equal to a predetermined distance. For example, the positioning device 11 may determine whether the distance between the host vehicle 1 and the second type of parking lot is less than or equal to a predetermined distance.
  • the feature amount of the second type of target near the parking lot may be stored in advance, and it may be determined whether the external sensor 15 detects a target having a similar feature amount.
  • the parking assistance control unit 51 starts parking assistance control when it is determined that the host vehicle 1 is located near the second type of parking lot stored as the target parking position and the above-mentioned parking assistance start condition is satisfied. do.
  • parking assistance control section 51 When parking assistance control is started, parking assistance control section 51 outputs a parking position calculation command to calculation section 58 for calculating the position of the target parking position in the vehicle coordinate system.
  • a travel trajectory calculation command is output to the target trajectory generation unit 59 to calculate a target travel trajectory from the current position of the host vehicle 1 to the target parking position and a target vehicle speed profile for the host vehicle 1 to travel on the target travel trajectory.
  • the target trajectory generation unit 59 calculates a target travel trajectory and a target vehicle speed profile from the current position of the own vehicle 1 to the target parking position, and outputs the calculated target vehicle speed profile to the parking assistance control unit 51.
  • Known methods used in automatic parking systems can be applied to calculate the target travel trajectory and target vehicle speed profile.
  • the parking assistance control unit 51 outputs information on the target travel trajectory and the current position of the host vehicle 1 to the HMI control unit 50. If the target travel trajectory includes a turnaround, information on the turnaround position is output to the HMI control unit 50.
  • the HMI control unit 50 displays the target traveling trajectory, the current position of the own vehicle 1, and the turnaround position on the HMI 13. Furthermore, the parking assistance control unit 51 outputs to the steering control unit 60 a steering control command for controlling the steering so that the host vehicle 1 travels along the calculated target travel trajectory. Further, a vehicle speed control command for controlling the vehicle speed of the host vehicle 1 according to the calculated target vehicle speed profile is output to the vehicle speed control unit 61.
  • the image conversion unit 52 converts the captured image of the camera into an overhead image (around-view monitor image) viewed from a virtual viewpoint directly above the own vehicle 1.
  • the image conversion unit 52 converts the captured image into a bird's-eye view image at a predetermined interval (for example, every time the host vehicle 1 travels a predetermined distance (for example, 50 cm) or for a predetermined time (for example, 1 second)), and converts the captured image into a bird's-eye view image.
  • a surrounding image which is an image of the surrounding area of the own vehicle 1, is generated by accumulating along the travel route of the own vehicle 1.
  • the self-position calculation unit 53 calculates the current position of the own vehicle 1 on the map coordinate system by dead reckoning based on vehicle information output from the vehicle sensor 16.
  • the parking lot type determining unit 54 determines whether the host vehicle 1 is located in a first type of parking lot. For example, as shown in FIG. 2A, in the first type of parking lot, similar patterns exist consecutively to represent a plurality of parking bays 30a to 30d. Therefore, the parking lot type determination unit 54 determines that the vehicle 1 is located in the first type of parking lot when similar patterns consecutively exist in the surrounding image generated by the image conversion unit 52. good. Further, for example, it is determined whether or not the own vehicle 1 is located in the first type of parking lot based on the current position of the own vehicle 1 measured by the positioning device 11 and the parking lot information stored in the map DB 12. You may.
  • the occupant When storing the learned target data in the storage device 21, the occupant manually parks the own vehicle 1 at the target parking position and operates the parking position learning switch.
  • the target object detection unit 55 determines the parking lot where the host vehicle 1 is parked from the surrounding image output from the image conversion unit 52. A target is detected, and information representing the characteristics of the detected target is generated as target characteristic data.
  • the target detection unit 55 may generate a partial image (road surface pattern) of a local area including the entire or part of the road marking representing the parking lot in which the car was parked, as the target characteristic data of the target representing the parking lot. .
  • FIG. 5 is a schematic diagram of an example of a local area including a pattern of road markings representing a parking lot.
  • the target detection unit 55 detects, as a target, a road marking 71 at the end on the road side adjacent to the parking space 70 among both ends in the longitudinal direction of the road marking representing the parking space 70 .
  • a partial image of the local area 72 may be generated as the target feature data of the target representing the parking lot.
  • the target detection unit 55 detects, as a target, a road marking 73 at the end opposite to the road adjacent to the parking space 70 among both ends in the longitudinal direction of the road marking representing the parking space 70, and A partial image of the local area 74 including the sign 73 may be generated as the target feature data of the target representing the parking lot.
  • the target detection unit 55 detects a road marking 75 provided in the parking lot 70 as a target, and converts the partial image of the local area 76 including the road marking 75 into the target object representing the parking lot. It may be generated as feature data.
  • the target detection unit 55 receives the current position of the own vehicle 1 when the own vehicle 1 is parked in the parking lot from the own position calculation unit 53, and obtains the parking position Pr.
  • the map generation unit 56 stores target feature data of the target detected by the target detection unit 55 and relative position data indicating the relative positional relationship between the parking position Pr and the target as learned target data.
  • the information is stored in the device 21 and map data 57 is generated.
  • the target object detection unit 55 detects the location near the second type of parking lot from the surrounding image output from the image conversion unit 52. Detect targets around parking spaces. For example, the target detection unit 55 detects the feature points of the target and its image feature amount. For example, methods such as SIFT, SURF, ORB, BRIAK, KAZE, and AKAZE can be used to detect feature points and calculate image feature amounts. Further, the target detection unit 55 receives the current position of the own vehicle 1 from the own position calculation unit 53.
  • the map generation unit 56 calculates the position of the target object on the map coordinate system based on the current position of the own vehicle 1 when the target object is detected, and calculates the position of the target object on the map coordinate system based on the current position of the own vehicle 1 when the own vehicle 1 is parked in the parking space. Calculate the parking position in the map coordinate system based on the current position.
  • the map generation unit 56 stores the target point and image feature amount of the target detected by the target detection unit 55 in the storage device 21 as target feature data, and stores the target position and parking position in the map coordinate system.
  • Map data 57 is generated by storing it in the storage device 21 as relative position data between the target and the parking space.
  • the matching section 58 receives a parking position calculation command from the parking assistance control section 51.
  • the matching unit 58 uses the target feature of the target representing the parking lot stored in the storage device 21 as learned target data. data and relative position data between the target and the target parking position.
  • the matching unit 58 detects a target representing a parking lot from the surrounding image by performing template matching on the surrounding image generated by the image converting unit 52 using the target object feature data.
  • the matching unit 58 calculates the current relative position of the own vehicle 1 with respect to the parking lot, which is the target parking position, based on the detected position of the target on the surrounding image and the relative position data read from the storage device 21.
  • the target object detection unit 55 detects the surroundings of the host vehicle 1 from the surrounding image output from the image conversion unit 52. Detect surrounding targets.
  • the matching unit 58 matches the target stored as learned target data with surrounding targets detected by the target detecting unit 55 when performing parking assistance, and associates the same targets with each other. Based on the relative positional relationship between the targets of the learned target data associated with the surrounding targets and the target parking position, and the relative positional relationship between the surrounding targets and the host vehicle 1, Calculate the current relative position of the own vehicle with respect to the target parking position.
  • the matching unit 58 calculates an affine transformation matrix M affine using the following equation based on the least squares method.
  • the matching unit 58 converts the position (targetx m , targety m ) of the target parking position on the map coordinate system stored in the map data 57 into the position (targetx, target) on the vehicle coordinate system using the following equation.
  • the target trajectory generation unit 59 Upon receiving the driving trajectory calculation command from the parking assistance control unit 51, the target trajectory generation unit 59 generates a target driving trajectory from the current position of the host vehicle 1 to the target parking position on the vehicle coordinate system, and a target travel trajectory for the host vehicle 1 to reach the target parking position.
  • the target vehicle speed profile for traveling is calculated.
  • the steering control unit 60 controls the steering actuator 19a so that the own vehicle 1 travels along the target travel trajectory.
  • the vehicle speed control section 61 receives the vehicle speed control command from the parking assistance control section 51, it controls the accelerator actuator 19b and the brake actuator 19c so that the vehicle speed of the own vehicle 1 changes according to the target vehicle speed profile. Thereby, the host vehicle 1 is controlled to travel along the target travel trajectory.
  • the parking assistance control unit 51 operates the parking brake 18 and switches the shift position to the parking range (P range). .
  • FIG. 6 is a flowchart of an example of a process for storing learned target data.
  • the image conversion unit 52 converts the captured image of the camera into an overhead image viewed from a virtual viewpoint directly above the own vehicle 1, and obtains a surrounding image.
  • the target object detection unit 55 detects a target object from the acquired surrounding image.
  • the vehicle 1 is parked in the first type of parking lot, the entire or part of the road marking representing the parking lot where the vehicle 1 is parked is detected as a target object.
  • targets around the parking space are detected.
  • step S3 the parking lot type determination unit 54 determines whether or not the host vehicle 1 is located in the first type of parking lot. If the host vehicle 1 is located in the first type of parking lot (step S4: Y), the process proceeds to step S5. When the host vehicle 1 is located near the second type of parking lot where a single vehicle can be parked (step S4: N), the process proceeds to step S6.
  • step S5 the map generation unit 56 stores target feature data representing the characteristics of the target representing the parking section of the first type of parking lot and relative position data between the target and the parking position as learned target data. It is stored in the device 21. The process then ends.
  • step S6 the map generation unit 56 sets the target feature data representing the characteristics of targets around the parking space of the second type of parking lot and the relative position data between the target and the parking space as learned target data. It is stored in the storage device 21. The process then ends.
  • FIG. 7 is a flowchart of a first example of processing when implementing parking assistance.
  • the image conversion unit 52 converts the captured image of the camera into an overhead image to obtain a surrounding image.
  • the target detection unit 55 detects a surrounding target from the surrounding image.
  • the matching unit 58 reads learned target data from the storage device 21.
  • the matching unit 58 matches the target of the learned target data with surrounding targets.
  • the matching unit 58 determines whether a plurality of parking sections have been detected. If a plurality of parking spaces are detected (step S14: Y), the process advances to step S15. If a plurality of parking spaces are not detected (step S14: N), the process proceeds to step S16.
  • step S15 the butt unit 58 receives a selection input from the occupant who selects any one of the plurality of parking sections, thereby selecting one of the plurality of parking sections for the own vehicle 1 to park therein. Select as. After that, the process advances to step S16.
  • step S16 the matching unit 58 calculates the current relative position of the own vehicle 1 with respect to the parking lot that is the target parking position.
  • step S17 the target trajectory generation unit 59 calculates a target travel trajectory and a target vehicle speed profile.
  • step S18 the steering control section 60 and the vehicle speed control section 61 control the steering actuator 19a, the accelerator actuator 19b, and the brake actuator 19c based on the target travel trajectory and the target vehicle speed profile.
  • step S19 when the parking assistance control is completed, the parking assistance control unit 51 operates the parking brake 18 and switches the shift position to the P range.
  • FIG. 8 is a flowchart of a second example of processing when implementing parking assistance.
  • the parking lot type determination unit 54 determines whether or not the host vehicle 1 is located in the first type of parking lot.
  • the image conversion unit 52 converts the captured image of the camera into an overhead image viewed from a virtual viewpoint directly above the own vehicle 1, and obtains a surrounding image. If the host vehicle 1 is located in the first type of parking lot (step S22: Y), the process proceeds to step S23. When the host vehicle 1 is located near the second type of parking lot where a single vehicle can be parked (step S22: N), the process proceeds to step S25.
  • step S23 the matching unit 58 combines the target feature data of the target representing the parking section of the first type of parking lot stored as the learned target data and the relative position between the target and the target parking position. Read data.
  • step S24 the matching unit 58 detects a target representing a parking lot from the surrounding image by template matching the surrounding image acquired in step S21 with the target object feature data, and detects the target object representing the parking lot from the surrounding image, and detects the target object representing the parking lot that is the target parking position. Calculate the current relative position of 1. Thereafter, the process proceeds to step S29.
  • step S25 the target object detection unit 55 detects surrounding targets around the host vehicle 1.
  • step S26 the matching unit 58 compares the target feature data of the targets around the parking space of the second type of parking lot, which is stored as the learned target data, with the relative relationship between the target and the target parking position. Read the position data.
  • step S27 the matching unit 58 matches the target of the learned target data with surrounding targets.
  • step S28 the matching unit 58 calculates a target parking position based on the matched target. Thereafter, the process advances to step S29.
  • the processing in steps S29 to S31 is similar to the processing in steps S18 to S19 in FIG.
  • the host vehicle 1 is located in a first type of parking lot having a plurality of parking spaces, or the host vehicle 1 is located near a second type of parking lot where a single vehicle can be parked. If it is determined that the vehicle 1 is located in the first type of parking lot, the vehicle 1 parks in the target parking lot, which is any one of the plurality of parking lots. At this time, data representing the relative positional relationship between a target indicating that a plurality of parking bays are a parking bay in common and a parking position in the target parking bay is stored in a storage device as learned target data, and the data is automatically stored in a storage device.
  • the target object detected near the second type of parking lot and the target parking position are determined.
  • the data representing the relative positional relationship of are stored in the storage device as learned target data.
  • the parking lot in the first type of parking lot having a plurality of parking lots, by detecting a local pattern representing the parking lot from around the host vehicle 1, each of the plurality of parking lots represented by a similar pattern can be detected. It can be detected as the target parking position. As a result, it becomes possible to arbitrarily select a parking section in which the own vehicle 1 is to be parked.
  • the second type of parking lot where a single vehicle can be parked, by memorizing the overall arrangement pattern of targets detected near the parking lot, the parking lot can be parked without depending on environmental changes or fluctuations in vehicle position. It becomes possible to stably detect the target parking position.
  • the parking lot in which the own vehicle is to be parked is selected by accepting the selection input from the occupant who selects one of the plurality of parking sections. You may choose. Thereby, the occupant can arbitrarily select a parking section in which to park the own vehicle 1 from among the plurality of parking sections.
  • (3) Determine whether similar patterns are continuous in the surrounding images obtained by photographing the surroundings of the host vehicle 1, and if the similar patterns are continuous in the surrounding images, the host vehicle 1 is of the first type. It may be determined that the vehicle is located within the parking lot. Thereby, it is possible to easily determine whether or not the own vehicle 1 is located in the first type of parking lot based on the surrounding image.
  • the vehicle 1 Based on the positioning result of the positioning device included in the vehicle 1 and the map information, it may be determined whether the vehicle 1 is located in the first type of parking lot. Thereby, for example, when the vehicle is equipped with a navigation device, it can be easily determined whether or not the vehicle is located in the first type of parking lot.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

目標駐車位置への自車両の駐車を支援する駐車支援方法では、複数の駐車区画を有する第1種類の駐車場内に自車両が位置するか、単一車両が駐車可能な第2種類の駐車場付近に自車両が位置するかを判定し(S1)、自車両が第1種類の駐車場内に位置すると判定した場合に、複数の駐車区画のうちいずれか1つの駐車区画である対象駐車区画に自車両が駐車する際に、複数の駐車区画で共通し、かつ、対象駐車区画が駐車区画であることを表す物標と対象駐車区画内の駐車位置との相対位置関係を表すデータを記憶装置に記憶し(S4、S5)、自車両が第2種類の駐車場付近に位置すると判定した場合に、第2種類の駐車場に自車両が駐車する際に第2種類の駐車場付近で検出した物標と目標駐車位置との相対位置関係を表すデータを記憶装置に記憶する(S6、S7)。

Description

駐車支援方法及び駐車支援装置
 本発明は、駐車支援方法及び駐車支援装置に関する。
 特許文献1には、過去に目標駐車位置の周囲を撮影した画像から物標を抽出して記憶しておき、記憶した物標の位置と自動駐車時に自車両の周囲を撮影した画像から抽出される物標の位置とに基づいて自車両に対する目標駐車位置の相対位置を算出し、算出した相対位置に基づいて自車両を目標駐車位置まで自動的に移動させる運転制御装置が記載されている。
特開2017-138664号
 しかしながら、会社や病院、店舗、集合住宅、公共施設等の施設に設置された駐車場のように複数の駐車区画(駐車枠)が存在する場合、いずれか一つの駐車区画を目標駐車位置として記憶させると、常に同じ駐車枠にしか駐車できないという問題がある。
 本発明は、目標駐車位置付近の物標を予め記憶して目標駐車位置への自車両の駐車を支援する駐車支援において駐車場に複数の駐車区画が存在する場合に任意の駐車区画に自車両を駐車させることができることを目的とする。
 本発明の一態様によれば、目標駐車位置への自車両の駐車を支援する駐車支援方法が与えられる。駐車支援方法では、予め、目標駐車位置の周囲に存在する物標と目標駐車位置との相対位置関係を表すデータを学習済物標データとして記憶装置に記憶し、自車両の周囲に存在する物標である周囲物標の位置を検出し、学習済物標データと周囲物標の位置とに基づいて、目標駐車位置と自車両の現在位置との相対位置関係を算出し、目標駐車位置と自車両の現在位置との相対位置関係に基づいて自車両の現在位置から目標駐車位置へ至る走行軌道を算出し、走行軌道に基づいて目標駐車位置への自車両の駐車を支援する。駐車支援方法では、複数の駐車区画を有する第1種類の駐車場内に自車両が位置するか、単一車両が駐車可能な第2種類の駐車場付近に自車両が位置するかを判定し、自車両が第1種類の駐車場内に位置すると判定した場合に、複数の駐車区画のうちいずれか1つの駐車区画である対象駐車区画に自車両が駐車する際に、複数の駐車区画で共通して駐車区画であることを表す物標と対象駐車区画内の駐車位置との相対位置関係を表すデータを学習済物標データとして記憶装置に記憶し、自車両が第2種類の駐車場付近に位置すると判定した場合に、第2種類の駐車場に自車両が駐車する際に第2種類の駐車場付近で検出した物標と目標駐車位置との相対位置関係を表すデータを学習済物標データとして記憶装置に記憶する。
 本発明では、目標駐車位置付近の物標を予め記憶して目標駐車位置への自車両の駐車を支援する駐車支援において、駐車場に複数の駐車区画が存在する場合に任意の駐車区画に自車両を駐車させることができる。
駐車支援装置の概略構成例を示す図である。 学習済物標データを記憶する処理の第1例の説明図である。 駐車支援実施時の処理の第1例の説明図である。 駐車区画の検出方法の一例の説明図である。 学習済物標データを記憶する処理の第1例の説明図である。 駐車支援実施時の処理の第2例の説明図である。 図1のコントローラの機能構成の一例のブロック図である。 駐車区画を表すパターンを含む局所領域の例の模式図である。 学習済物標データの記憶処理の一例のフローチャートである。 駐車支援実施時の処理の第1例のフローチャートである。 駐車支援実施時の処理の第2例のフローチャートである。
 (構成)
 図1を参照する。自車両1は、目標駐車位置への自車両1の駐車を支援する駐車支援装置10を備える。駐車支援装置10は、自車両1の現在位置から目標駐車位置までの目標走行軌道に沿って走行することを支援する。例えば、自車両1の目標走行軌道に沿って目標駐車位置まで走行するように自車両1を制御する自動運転を行ってもよい。自車両1の目標走行軌道に沿って目標駐車位置まで走行するように制御する自動運転とは、自車両の操舵角、駆動力、制動力の全て、あるいは一部を制御して、自車両1の目標走行軌道に沿った走行の全てあるいは一部を自動的に実施する制御を意味する。また、目標走行軌道と自車両1の現在位置とを自車両1の乗員が視認可能な表示装置に表示することによって、自車両1の駐車を支援してもよい。
 測位装置11は、自車両1の現在位置を測定する。測位装置11は、例えば全地球型測位システム(GNSS)受信機を備える。
 地図データベース(地図DB)12には地図データが記憶されている。地図データベース12に記憶されている地図データは、例えばナビゲーション用の地図データや自動運転用の地図として好適な高精度地図データであってよい。地図データは、会社や病院、店舗、集合住宅、公共施設等の施設に設置された駐車場の位置と範囲の情報を含む。
 ヒューマンマシンインタフェース(HMI)13は、駐車支援装置10と乗員との間で情報を授受するインタフェース装置である。HMI13は、自車両1の乗員が視認可能な表示装置、スピーカやブザー、操作子を備える。
 シフトスイッチ(シフトSW)14は、運転者や駐車支援装置10が自車両1のシフトポジションを切り替えるためのスイッチである。
 外界センサ15は、自車両1から所定距離範囲の物体を検出する。外界センサ15は、自車両1の周囲に存在する物体と自車両1との相対位置、自車両1と物体との距離、物体が存在する方向などの自車両1の周囲環境を検出する。外界センサ15は、例えば自車両1の周囲環境を撮影するカメラを含んでよい。以下の説明において、外界センサ15が有するカメラを単に「カメラ」と表記する。外界センサ15は、レーザレンジファインダやレーダ、LiDAR(Light Detection and Ranging)などの測距装置を含んでもよい。
 車両センサ16は、自車両1の様々な情報(車両情報)を検出する。車両センサ16は、例えば、自車両1の走行速度を検出する車速センサ、自車両1が備える各タイヤの回転速度を検出する車輪速センサ、自車両1の3軸方向の加速度(減速度を含む)を検出する3軸加速度センサ(Gセンサ)、操舵角を検出する操舵角センサ、転舵輪の転舵角を検出する転舵角センサ、ジャイロセンサ、ヨーレイトセンサを含んでよい。
 コントローラ17は、自車両1の駐車支援制御を行う電子制御ユニットである。コントローラ17は、プロセッサ20と、記憶装置21等の周辺部品とを含む。プロセッサ20は、例えばCPUやMPUであってよい。記憶装置21は、半導体記憶装置や、磁気記憶装置、光学記憶装置等を備えてよい。以下に説明するコントローラ17の機能は、例えばプロセッサ20が、記憶装置21に格納されたコンピュータプログラムを実行することにより実現される。なお、コントローラ17を、以下に説明する各情報処理を実行するための専用のハードウエアにより形成してもよい。
 ステアリングアクチュエータ19aは、コントローラ17の制御信号に応じて自車両1の操舵機構の操舵方向及び操舵量を制御する。アクセルアクチュエータ19bは、コントローラ17の制御信号に応じて、エンジンや駆動モータである駆動装置のアクセル開度を制御する。ブレーキアクチュエータ19cは、コントローラ17の制御信号に応じて制動装置を作動させる。
 次に、駐車支援装置10による駐車支援制御を説明する。駐車支援装置10による駐車支援を利用する際には、自車両1を駐車させる位置である目標駐車位置の周囲に存在する物標と目標駐車位置との間の相対位置関係を表すデータを予め記憶装置21に記憶させる。以下の説明において、記憶装置21に記憶させる物標と目標駐車位置との間の相対位置関係を表すデータを「学習済物標データ」と表記することがある。
 例えば、自車両1が目標駐車場付近にいるときに目標駐車位置の周囲の物標を外界センサ15で検出してよい。例えば、自車両1の乗員(例えば運転者)が手動運転で自車両1を目標駐車位置に駐車する際に自車両1の周囲の物標を外界センサ15で検出してよい。例えば、自車両1が目標駐車位置に駐車しているときに自車両1の周囲の物標を外界センサ15で検出してよい。このとき、例えばカメラで撮影した自車両1の周囲の画像から物標を検出してもよく、測距装置によって自車両1の周囲の物標を検出してもよい。
 記憶装置21に記憶する学習済物標データは、検出した物標の特徴を表すデータ(以下の説明において「物標特徴データ」と表記することがある)と、物標と目標駐車位置との間の相対位置関係のデータ(以下の説明において「相対位置データ」と表記することがある)を含んでよい。
 図2A及び図3Aは、学習済物標データを記憶する処理例の説明図である。学習済物標データを記憶装置21に記憶させる際には、例えば、乗員がHMI13の操作子として用意された「駐車位置学習スイッチ」を操作する。
 コントローラ17は、学習済物標データを記憶する際に、複数の駐車区画を有する駐車場(以下の説明において「第1種類の駐車場」と表記することがある)内に自車両1が位置するか、単一車両が駐車可能な駐車場(以下の説明において「第2種類の駐車場」と表記することがある)付近に自車両が位置するかを判定する。
 第1種類の駐車場の例は、会社や病院、店舗、集合住宅、公共施設等の施設に設置された駐車場である。第2種類の駐車場の例は、例えば個人の住宅に設置された駐車場である。
 図2Aに示す駐車場は、複数の駐車区画30a~30dを有する第1種類の駐車場である。例えば、自車両1が手動運転により経路31に沿って移動して駐車区画30cに駐車する場合を想定する。駐車区画30cは特許請求の範囲に記載の「対象駐車区画」の一例である。
 コントローラ17は、駐車区画30cが駐車区画であることを表す物標として、駐車場の路面に付された駐車区画30cを表す路面標示(例えば駐車区画の枠を示す白線)や車輪留め等の立体物である物標特徴を、カメラで撮影した自車両1の周囲の画像から検出する。コントローラ17は、検出した路面標示の特徴を表す物標特徴データと、検出した路面標示と駐車区画内の目標駐車位置との間の相対位置データとを、学習済物標データとして記憶装置21に記憶する。
 例えばコントローラ17は、検出した路面標示のパターン32を物標特徴データとして記憶装置21に記憶してよい。また、駐車区画30c内に自車両1を駐車させた時の駐車位置Prとパターン32との間の相対位置データを記憶装置21に記憶してよい。例えば、自車両1を駐車区画30cに駐車させたときに検出した路面標示の車両座標系(すなわち自車両1の現在位置を基準とする座標系)上の座標を、相対位置データとして記憶してよい。
 以下の説明において、駐車区画を表す路面標示のパターン32を「路面パターン」と表記することがある。例えばコントローラ17は、自車両1の周囲をカメラで撮影した画像から、単一の駐車区画を表す路面標示の全体又は一部分を含んだ局所領域の部分画像を抽出して、路面パターン32として記憶装置21に記憶してよい。
 このようにコントローラ17は、複数の駐車区画30a~30dを有する第1種類の駐車場では、駐車場全体の路面標示のうち駐車区画単位の路面標示の特徴を表す局所的な情報を、物標特徴データとして記憶装置21として記憶する。例えば、駐車区画単位の路面標示を表す局所的な路面パターン32を記憶装置21に記憶する。このときコントローラ17は、路面パターン32が、複数の駐車区画30a~30dで共通して駐車区画であることを表す特徴であるか否かを判断し、複数の駐車区画30a~30dで共通して駐車区画である場合に路面パターン32を記憶する。例えばコントローラ17は、自車両1の周囲をカメラで撮影した画像に路面パターン32が連続して複数を存在するか否かを判定するで、複数の駐車区画30a~30dで共通して駐車区画であることを表す特徴であるか否かを判定してもよい。
 図3Aに示す駐車場は、第2種類の駐車場であり単一車両が駐車可能な駐車スペース40を有する。例えば自車両1が手動運転により経路41に沿って移動して駐車スペース40に駐車した際に、駐車スペース40を駐車目標位置として記憶装置21に記憶する場合を想定する。
 コントローラ17は、自車両1が駐車スペース40付近に位置するとき(例えば乗員が手動運転で自車両1を駐車スペース40に駐車させるとき)にカメラで自車両1の周囲を撮影した画像から、駐車スペース40の周囲の物標を検出する。例えばコントローラ17は、駐車スペース40の周囲の物標として画像上の特徴点を検出してよい。例えばカメラで撮影して得られた撮像画像上の、路面標示や、道路境界、障害物などの物標のエッジやコーナーなど、隣接する画素の輝度が所定以上変化するエッジ点や形状に特徴を備える点を特徴点として検出してよい。
 コントローラ17は、駐車スペース40の周囲の所定領域42において検出した物標の特徴を表す物標特徴データを学習済物標データとして記憶装置21に記憶する。例えばコントローラ17は、検出した物標の特徴点と特徴量を物標特徴データとして記憶装置21に記憶してよい。またコントローラ17は、駐車目標位置である駐車スペース40と物標との間の相対位置データを学習済物標データとして記憶装置21に記憶する。
 図3Aにおいて丸プロットは学習済物標データとして記憶された物標を模式的に表している。
 物標と駐車スペース40との相対位置データを記憶する際に、例えば固定の地点を基準点とする座標系(以下「地図座標系」と表記する)上における物標と駐車スペース40の座標を記憶してもよい。この場合、自車両1が駐車スペース40に位置するときに測定した地図座標系上の現在位置を、駐車スペース40の位置として記憶してもよい。また、地図座標系の代わりに、各々の物標に対する駐車スペース40のそれぞれの相対位置を記憶してもよい。
 なお、学習済物標データを記憶する所定領域42は、例えば一辺又は直径の長さが20m~30m程度の領域であってよい。このように、第2種類の駐車場において駐車スペース40の周囲の学習済物標データを記憶する場合には、駐車スペース40を含んだ比較的広い範囲における物標(特徴点)の全体的な配置パターンを記憶装置21に記憶する。
 一方で、第1種類の駐車場において駐車区画30cの学習済物標データを記憶する場合には、駐車区画1個分の比較的狭い範囲における物標(路面標示)を表す局所的パターンを記憶装置21に記憶する。すなわち、第1種類の駐車場において物標を記憶する第1範囲は、第2種類の駐車場において物標を記憶する第2範囲よりも小さい。
 図2Bは、第1種類の駐車場における駐車支援実施時の処理例の説明図である。コントローラ17は、自車両1が第1種類の駐車場内に位置しており、所定の駐車支援開始条件が成立した場合に自車両1の駐車支援を実施する。例えばコントローラ17は、測位装置11が測定した自車両1の現在位置と、地図DB12に記憶されている駐車場の情報に基づいて自車両1が第1種類の駐車場内に位置しているか否かを判定してよい。
 コントローラ17は、駐車支援開始条件として、自車両1が第1種類の駐車場内に位置しているとき乗員が自車両1の前進と後退を切り替える切返しのためのシフト操作を行ったか否かを判定する。コントローラ17は、シフトポジションがドライブレンジ(Dレンジ)からリバースレンジ(Rレンジ)に切り替わったり、RレンジからDレンジに切り替わった場合に、切返しのためのシフト操作が行われたと判定し、駐車支援を開始してよい。
 コントローラ17は、駐車支援開始条件としてHMI13に用意された「駐車支援起動スイッチ」を乗員が操作したか否かを判定し、駐車支援起動スイッチが操作されたときに駐車支援を開始してもよい。
 コントローラ17は、第1種類の駐車場内の車路(drive aisle)33を、軌跡34に沿って走行しながら自車両1の周囲をカメラで撮影した画像を蓄積することによって、自車両1の周囲領域35の画像(周囲画像)を生成する。
 コントローラ17は、学習済物標データとして記憶した物標特徴データ(すなわち駐車区画であることを表す物標の物標特徴データ)と類似する特徴を有する物標を含んだ領域を周囲画像上から検出することにより、自車両1の周囲に存在する1つ以上の駐車区画36a~36cを検出する。例えば、複数の駐車区画36a~36cで共通して駐車区画であることを表す路面パターン32と類似する路面標示を含んだ領域を周囲画像上から検出することにより、駐車区画36a~36cを検出する。駐車区画36a~36cは、特許請求の範囲に記載の「周囲物標」の一例である。
 例えばコントローラ17は、路面パターン32をテンプレートとして周囲画像をテンプレートマッチングすることにより駐車区画36a~36cを検出してよい。例えばコントローラ17は、周囲画像上で路面パターン32を走査させ、周囲画像上の各位置における路面パターン32と周囲画像の類似度を算出し、類似度を閾値以上の領域を検出してよい。
 図2Cは、駐車区画の検出方法の一例の説明図である。例えば、車路33の延在方向を主走査方向として設定し、1回の主走査が完了する毎に副走査方向位置を変えながら、自車両1の周囲領域35の周囲画像上で路面パターン32を走査させる。そして、周囲画像上の各位置における路面パターン32と周囲画像の類似度を算出し、類似度が閾値Th以上となる位置Pfa、Pfb及びPfcとなる位置を、駐車区画36a~36cの位置として検出する。
 図2Bを参照する。コントローラ17は、自車両1を駐車する駐車区画を、検出した駐車区画36a~36cから選択する。例えばコントローラ17は、検出した駐車区画36a~36cをHMI13に表示することにより乗員に駐車区画候補を提示し、これらの駐車区画候補からいずれかを選択する乗員の選択入力を受け付けることにより、自車両1を駐車する駐車区画を選択してよい。また例えばコントローラ17は、最短の移動経路によって駐車できる駐車区画を選択してもよい。ここでは、駐車区画36cが選択された場合を想定する。
 自車両1を駐車する駐車区画36cが選択されると、コントローラ17は、駐車区画36cの検出位置と、学習済物標データとして記憶した物標と目標駐車位置との間の相対位置データ(すなわち駐車区画を表す路面標示と目標駐車位置との間の相対位置データ)とに基づいて、目標駐車位置に対する自車両1の相対位置を算出する。
 例えば、駐車区画36cの検出位置と、学習済物標データとして記憶した、駐車区画30cに自車両1を駐車させた時の駐車位置Prと駐車区画30cの路面標示との間の相対位置データと、に基づいて目標駐車位置に対する自車両1の相対位置を算出する。
 コントローラ17は、目標駐車位置に対する自車両1の相対位置に基づいて、自車両1の現在位置から目標駐車位置へ至る目標走行軌道37を算出する。そして、算出した目標走行軌道に基づいて自車両1の駐車支援制御を実施する。
 図3Bは、第2種類の駐車場における駐車支援実施時の処理例の説明図である。コントローラ17は、駐車スペース(すなわち目標駐車位置)40付近に位置し、上記の駐車支援開始条件が成立した場合に自車両1の駐車支援を実施する。
 コントローラ17は、自車両1の周囲をカメラで撮影して得られる周囲画像から、自車両1の周囲の物標を検出する。以下の説明において、駐車支援実施時に抽出される自車両1の周囲の物標は、特許請求の範囲に記載の「周囲物標」の他の例である。図3Bにおいて三角形プロットは周囲物標を表している。
 コントローラ17は、記憶装置21に記憶した学習済物標データと周囲物標とをマッチングし、同一の物標同士を対応付ける。
 コントローラ17は、駐車支援実施時に検出した周囲物標と自車両1との間の相対位置関係と、周囲物標に対応付けられた学習済物標データの物標と目標駐車位置40との間の相対位置関係とに基づいて、目標駐車位置40に対する自車両1の相対位置(すなわち目標駐車位置に対する自車両1の相対位置)を算出する。
 例えば、コントローラ17は、車両座標系上の目標駐車位置40の位置を算出してもよい。例えば、学習済物標データにおいて物標の座標と目標駐車位置40の座標が地図座標系の座標として表されている場合、駐車支援実施時に検出した周囲物標の車両座標系上の座標と、学習済物標データの物標の地図座標系の座標に基づいて、地図座標系上の目標駐車位置40の座標を車両座標系上の座標に変換してよい。
 または、駐車支援実施時に検出した周囲物標の車両座標系上の座標と、学習済物標データの物標の地図座標系の座標に基づいて、地図座標系上の自車両1の現在位置を求め、地図座標系における自車両1の座標と目標駐車位置40の座標の差分から、目標駐車位置40に対する自車両1の相対位置を算出してもよい。
 コントローラ17は、目標駐車位置40に対する自車両1の相対位置に基づいて、自車両1の現在位置43から目標駐車位置40へ至る目標走行軌道44を算出する。そして、算出した目標走行軌道44に基づいて自車両1の駐車支援制御を実施する。
 次に、コントローラ17の機能構成についてより詳しく説明する。図4を参照する。HMI制御部50は、駐車位置学習スイッチが乗員に操作されると、学習済物標データを記憶装置21に記憶させる地図生成指令を地図生成部56に出力する。HMI制御部50は、乗員が切返しのためのシフト操作を行ったか否かを判定し、判定結果を駐車支援制御部51に出力する。また、HMI13の駐車支援起動スイッチが乗員に操作されたことを検出すると、検出結果を駐車支援制御部51に出力する。
 駐車支援制御部51は、駐車支援制御を開始するか否かを判定する。例えば、後述の駐車場種類判定部54により第1種類の駐車場内に位置していると判定され、上記の駐車支援開始条件が成立したときに駐車支援制御を開始する。
 または駐車支援制御部51は、自車両1が目標駐車位置として記憶された第2種類の駐車場付近に位置するか否かを判定する。例えば、自車両1と第2種類の駐車場との距離が所定距離以下であるか否かを判定する。例えば測位装置11によって自車両1と第2種類の駐車場との距離が所定距離以下であるか否かを判定してよい。または、第2種類の駐車場付近の物標の特徴量を予め記憶し、類似する特徴量の物標を外界センサ15が検出するか否かを判定してもよい。駐車支援制御部51は、自車両1が目標駐車位置として記憶された第2種類の駐車場付近に位置していると判定され、上記の駐車支援開始条件が成立したときに駐車支援制御を開始する。
 駐車支援制御を開始すると、駐車支援制御部51は、車両座標系における目標駐車位置の位置を算出させる駐車位置算出指令を突合部58に出力する。自車両1の現在位置から目標駐車位置へ至る目標走行軌道と、自車両1が目標走行軌道を走行する目標車速プロファイルと、を算出させる走行軌道算出指令を目標軌道生成部59に出力する。
 目標軌道生成部59は、自車両1の現在位置から目標駐車位置へ至る目標走行軌道と目標車速プロファイルとを算出して駐車支援制御部51へ出力する。目標走行軌道と目標車速プロファイルの算出には、自動駐車装置に採用されている既知の手法を適用することができる。
 駐車支援制御部51は、目標走行軌道と自車両1の現在位置の情報をHMI制御部50へ出力する。目標走行軌道が切返しを含む場合、切返し位置の情報をHMI制御部50へ出力する。HMI制御部50は、目標走行軌道と自車両1の現在位置と切返し位置を、HMI13に表示する。
 また、駐車支援制御部51は、算出された目標走行軌道に沿って自車両1を走行させるように操舵制御する操舵制御指令を操舵制御部60へ出力する。また、算出された目標車速プロファイルに従って自車両1の車速を制御する車速制御指令を車速制御部61へ出力する。
 画像変換部52は、カメラの撮像画像を、自車両1の真上の仮想視点から見た俯瞰画像(アラウンドビューモニター画像)に変換する。画像変換部52は、所定の間隔で(例えば自車両1が所定距離(例えば50cm)や所定時間(例えば1秒間)走行する毎に)撮像画像を俯瞰画像に変換し、変換された俯瞰画像を自車両1の走行経路に沿って蓄積することで自車両1の周囲領域の画像である周囲画像を生成する。
 自己位置算出部53は、車両センサ16から出力される車両情報に基づくデッドレコニングにより地図座標系上の自車両1の現在位置を演算する。
 駐車場種類判定部54は、第1種類の駐車場内に自車両1が位置するか否かを判定する。
 例えば、図2Aに示すように第1種類の駐車場には、複数の駐車区画30a~30dを表すために類似するパターンが連続して存在する。したがって、駐車場種類判定部54は、画像変換部52により生成された周囲画像に、類似するパターンが連続して存在する場合に、第1種類の駐車場内に自車両1が位置すると判定してよい。また例えば、測位装置11が測定した自車両1の現在位置と、地図DB12に記憶されている駐車場の情報に基づいて自車両1が第1種類の駐車場内に位置しているか否かを判定してもよい。
 学習済物標データを記憶装置21に記憶する際には、乗員が手動運転によって自車両1を目標駐車位置に駐車し、駐車位置学習スイッチを操作する。
 自車両1が第1種類の駐車場内に位置していると判定された場合、物標検出部55は、画像変換部52から出力される周囲画像から、自車両1が駐車される駐車区画を表す物標を検出して、検出した物標の特徴を表す情報を物標特徴データとして生成する。
 例えば物標検出部55は、駐車した駐車区画を表す路面標示の全体又は一部分を含んだ局所領域の部分画像(路面パターン)を、駐車区画を表す物標の物標特徴データとして生成してよい。
 図5は、駐車区画を表す路面標示のパターンを含んだ局所領域の例の模式図である。例えば物標検出部55は、駐車区画70を表す路面標示の前後方向両端部のうち、駐車区画70に隣接する車路側の端部の路面標示71を物標として検出し、路面標示71を含んだ局所領域72の部分画像を、駐車区画を表す物標の物標特徴データとして生成してよい。
 また例えば物標検出部55は、駐車区画70を表す路面標示の前後方向両端部のうち、駐車区画70に隣接する車路と反対側の端部の路面標示73を物標として検出し、路面標示73を含んだ局所領域74の部分画像を、駐車区画を表す物標の物標特徴データとして生成してよい。
 また例えば物標検出部55は、駐車区画70内に設けられた路面標示75を物標として検出し、路面標示75を含んだ局所領域76の部分画像を、駐車区画を表す物標の物標特徴データとして生成してよい。
 図4を参照する。物標検出部55は、自車両1を駐車区画に駐車させた時の自車両1の現在位置を自己位置算出部53から受信して駐車位置Prを取得する。
 地図生成部56は、物標検出部55が検出した物標の物標特徴データと、駐車位置Prと物標との間の相対位置関係を示す相対位置データとを学習済物標データとして記憶装置21に記憶し、地図データ57を生成する。
 一方で自車両1が、第2種類の駐車場付近に位置していると判定された場合、物標検出部55は、画像変換部52から出力される周囲画像から、第2種類の駐車場の駐車スペースの周囲の物標を検出する。例えば、物標検出部55は、物標の特徴点とその画像特徴量を検出する。特徴点の検出や画像特徴量の算出には、例えばSIFT、SURF、ORB、BRIAK、KAZE、AKAZE等の手法を利用できる。
 さらに物標検出部55は、自車両1の現在位置を自己位置算出部53から受信する。地図生成部56は、物標を検出した時の自車両1の現在位置に基づいて地図座標系上の物標の位置を算出し、自車両1を駐車スペースに駐車した時の自車両1の現在位置に基づいて地図座標系の駐車位置を算出する。
 地図生成部56は、物標検出部55が検出した物標の物標点と画像特徴量を物標特徴データとして記憶装置21に記憶し、地図座標系の物標の位置と駐車位置を、物標と駐車スペースとの間の相対位置データとして記憶装置21に記憶することにより地図データ57を生成する。
 その後に、駐車支援制御部51が駐車支援制御を開始すると、突合部58は、駐車支援制御部51から駐車位置算出指令を受信する。
 自車両1が第1種類の駐車場内に位置していると判定された場合、突合部58は、学習済物標データとして記憶装置21に記憶されている駐車区画を表す物標の物標特徴データと、物標と目標駐車位置との間の相対位置データとを読み出す。突合部58は、画像変換部52により生成された周囲画像を物標特徴データでテンプレートマッチングすることにより、周囲画像から駐車区画を表す物標を検出する。突合部58は、周囲画像上の物標の検出位置と、記憶装置21から読み出した相対位置データとに基づいて、目標駐車位置である駐車区画に対する自車両1の現在の相対位置を算出する。
 一方で、自車両1が、第2種類の駐車場付近に位置していると判定された場合、物標検出部55は、画像変換部52から出力される周囲画像から、自車両1の周囲の周囲物標を検出する。突合部58は、学習済物標データとして記憶されている物標と、駐車支援実施時に物標検出部55が検出した周囲物標とをマッチングして、同一の物標どうしを対応付ける。
 突合部58は、周囲物標に対応付けられた学習済物標データの物標と目標駐車位置との相対位置関係と、周囲物標と自車両1との間の相対位置関係に基づいて、目標駐車位置に対する自車両の現在の相対位置を算出する。
 例えば、周囲物標の位置を(x,y)と表記し、周囲物標に対応付けられた学習済物標データの物標の位置を(xmi,ymi)と表記する(i=1~N)。突合部58は、最小二乗法に基づいて次式によりアフィン変換行列Maffineを算出する。
Figure JPOXMLDOC01-appb-M000001
 突合部58は、次式により、地図データ57に記憶された地図座標系上の目標駐車位置の位置(targetx,targety)を、車両座標系の位置(targetx,targety)に変換する。
Figure JPOXMLDOC01-appb-M000002
 目標軌道生成部59は、駐車支援制御部51から走行軌道算出指令を受信すると、車両座標系上の自車両1の現在位置から目標駐車位置まで至る目標走行軌道と、自車両1が目標走行軌道を走行する目標車速プロファイルとを算出する。操舵制御部60は、駐車支援制御部51から操舵制御指令を受信すると、自車両1が目標走行軌道に沿って自車両1を走行するようにステアリングアクチュエータ19aを制御する。車速制御部61は、駐車支援制御部51から車速制御指令を受信すると、自車両1の車速が目標車速プロファイルに従って変化するように、アクセルアクチュエータ19bとブレーキアクチュエータ19cを制御する。これにより、目標走行軌道に沿って走行するように自車両1が制御される。
 駐車支援制御部51は、自車両1が目標駐車位置に到達して駐車支援制御が完了すると、駐車支援制御部51は、パーキングブレーキ18を作動させ、シフトポジションをパーキングレンジ(Pレンジ)に切り替える。
 (動作)
 図6は学習済物標データを記憶する処理の一例のフローチャートである。
 ステップS1において画像変換部52は、カメラの撮像画像を自車両1の真上の仮想視点から見た俯瞰画像に変換して周囲画像を取得する。ステップS2において物標検出部55は、取得した周囲画像から物標を検出する。自車両1が第1種類の駐車場に駐車した場合には、駐車した駐車区画を表す路面標示の全体又は一部分が物標として検出される。自車両1が第2種類の駐車場に駐車した場合には、駐車スペースの周囲の物標が検出される。
 ステップS3において駐車場種類判定部54は、第1種類の駐車場内に自車両1が位置するか否かを判定する。第1種類の駐車場内に自車両1が位置する場合(ステップS4:Y)に処理はステップS5へ進む。単一車両が駐車可能な第2種類の駐車場付近に自車両1が位置する場合(ステップS4:N)に処理はステップS6へ進む。ステップS5において地図生成部56は、第1種類の駐車場の駐車区画を表す物標の特徴を表す物標特徴データと物標と駐車位置との相対位置データとを学習済物標データとして記憶装置21に記憶する。その後に処理は終了する。ステップS6において地図生成部56は、第2種類の駐車場の駐車スペースの周囲の物標の特徴を表す物標特徴データと物標と駐車スペースとの相対位置データとを学習済物標データとして記憶装置21に記憶する。その後に処理は終了する。
 図7は駐車支援実施時の処理の第1例のフローチャートである。ステップS10において画像変換部52は、カメラの撮像画像を俯瞰画像に変換して周囲画像を取得する。ステップS11において物標検出部55は、周囲画像から周囲物標を検出する。ステップS12において突合部58は、学習済物標データを記憶装置21から読み込む。ステップS13において突合部58は、学習済物標データの物標と周囲物標とをマッチングする。ステップS14において突合部58は、複数の駐車区画を検出したか否かを判定する。複数の駐車区画を検出した場合(ステップS14:Y)に処理はステップS15へ進む。複数の駐車区画を検出しない場合(ステップS14:N)に処理はステップS16へ進む。ステップS15において突合部58は、複数の駐車区画のうちいずれか1つを選択する乗員の選択入力を受け付けることにより、複数の駐車区画からいずれか1つの駐車区画を自車両1が駐車する駐車区画として選択する。その後に処理はステップS16へ進む。
 ステップS16において突合部58は、目標駐車位置である駐車区画に対する自車両1の現在の相対位置を算出する。ステップS17において目標軌道生成部59は、目標走行軌道と目標車速プロファイルとを算出する。ステップS18において操舵制御部60と車速制御部61は、目標走行軌道と目標車速プロファイルとに基づいてステアリングアクチュエータ19a、アクセルアクチュエータ19b、ブレーキアクチュエータ19cを制御する。ステップS19において駐車支援制御部51は、駐車支援制御が完了すると、パーキングブレーキ18を作動させてシフトポジションをPレンジに切り替える。
 図8は駐車支援実施時の処理の第2例のフローチャートである。ステップS20において駐車場種類判定部54は、第1種類の駐車場内に自車両1が位置するか否かを判定する。ステップS21において画像変換部52は、カメラの撮像画像を自車両1の真上の仮想視点から見た俯瞰画像に変換して周囲画像を取得する。第1種類の駐車場内に自車両1が位置する場合(ステップS22:Y)に処理はステップS23へ進む。単一車両が駐車可能な第2種類の駐車場付近に自車両1が位置する場合(ステップS22:N)に処理はステップS25へ進む。ステップS23において突合部58は、学習済物標データとして記憶されている第1種類の駐車場の駐車区画を表す物標の物標特徴データと、物標と目標駐車位置との間の相対位置データとを読み出す。ステップS24において突合部58は、ステップS21で取得した周囲画像を物標特徴データでテンプレートマッチングすることにより、周囲画像から駐車区画を表す物標を検出し、目標駐車位置である駐車区画に対する自車両1の現在の相対位置を算出する。その後に処理はステップS29へ進む。
 ステップS25において物標検出部55は、自車両1の周囲の周囲物標を検出する。ステップS26において突合部58は、学習済物標データとして記憶されている第2種類の駐車場の駐車スペースの周囲の物標の物標特徴データと、物標と目標駐車位置との間の相対位置データとを読み出す。ステップS27において突合部58は、学習済物標データの物標と周囲物標とをマッチングする。ステップS28において突合部58はマッチングした物標に基づいて目標駐車位置を算出する。その後に処理はステップS29へ進む。ステップS29~ステップS31の処理は図7のステップS18~S19の処理と同様である。
 (実施形態の効果)
 (1)実施形態の駐車支援方法では、複数の駐車区画を有する第1種類の駐車場内に自車両1が位置するか、単一車両が駐車可能な第2種類の駐車場付近に自車両1が位置するかを判定し、自車両1が第1種類の駐車場内に位置すると判定した場合に、複数の駐車区画のうちいずれか1つの駐車区画である対象駐車区画に自車両1が駐車する際に、複数の駐車区画が共通して駐車区画であることを表す物標と対象駐車区画内の駐車位置との相対位置関係を表すデータを学習済物標データとして記憶装置に記憶し、自車両1が第2種類の駐車場付近に位置すると判定した場合に、第2種類の駐車場に自車両1が駐車する際に第2種類の駐車場付近で検出した物標と目標駐車位置との相対位置関係を表すデータを学習済物標データとして記憶装置に記憶する。
 これにより、複数の駐車区画を有する第1種類の駐車場では、駐車区画を表す局所的なパターンを自車両1の周囲から検出することで、類似するパターンで表された複数の駐車区画を各々目標駐車位置として検出できる。この結果、自車両1を駐車させる駐車区画を任意に選択できるようになる。その一方で、単一車両が駐車可能な第2種類の駐車場では、駐車場付近で検出した物標の全体的な配置パターンを記憶することで、環境変化や車両位置の変動によらず、安定した目標駐車位置の検出が可能となる。
 (2)自車両1が第1種類の駐車場内に位置すると判定した場合に、複数の駐車区画のうちいずれか1つを選択する乗員の選択入力を受け付けることにより自車両を駐車する駐車区画を選択してよい。これにより、複数の駐車区画のうち自車両1を駐車させる駐車区画を乗員が任意に選択できる。
 (3)自車両1の周囲を撮影して得られる画像である周囲画像に類似パターンが連続するか否かを判定し、周囲画像に類似パターンが連続する場合に、自車両1が第1種類の駐車場内に位置すると判定してよい。
 これにより、周囲画像に基づいて自車両1が第1種類の駐車場内に位置するか否かを容易に判定できる。
 (4)自車両1が備える測位装置の測位結果と地図情報とに基づいて、自車両1が第1種類の駐車場内に位置するか否かを判定してもよい。これにより、例えばナビゲーション装置を備えている場合に車両において、第1種類の駐車場内に位置するか否かを容易に判定できる。
 (5)対象駐車区画の前後方向両端部のうち対象駐車区画に隣接する車路側の端部の路面標示と対象駐車区画内の駐車位置との相対位置関係を表すデータを学習済物標データとして記憶装置に記憶してよい。これにより、駐車区画であることを表す物標の学習済物標データを記憶できる。
 (6)対象駐車区画の前後方向両端部のうち対象駐車区画に隣接する車路と反対側の端部の路面標示と対象駐車区画内の駐車位置との相対位置関係を表すデータを学習済物標データとして記憶装置に記憶してもよい。これにより、駐車区画であることを表す物標の学習済物標データを記憶できる。
 (7)対象駐車区画内に設けられた路面標示と対象駐車区画内の駐車位置との相対位置関係を表すデータを学習済物標データとして記憶装置に記憶してもよい。これにより、駐車区画であることを表す物標の学習済物標データを記憶できる。
 1…自車両、10…駐車支援装置、17…コントローラ

Claims (8)

  1.  目標駐車位置への自車両の駐車を支援する駐車支援方法であって、
     予め、目標駐車位置の周囲に存在する物標と前記目標駐車位置との相対位置関係を表すデータを学習済物標データとして記憶装置に記憶することと、
     前記自車両の周囲に存在する物標である周囲物標の位置を検出することと、
     前記学習済物標データと前記周囲物標の位置とに基づいて、前記目標駐車位置と前記自車両の現在位置との相対位置関係を算出することと、
     前記目標駐車位置と前記自車両の現在位置との相対位置関係に基づいて前記自車両の現在位置から前記目標駐車位置へ至る走行軌道を算出することと、
     前記走行軌道に基づいて前記目標駐車位置への前記自車両の駐車を支援することと、を含み、
     さらに、複数の駐車区画を有する第1種類の駐車場内に前記自車両が位置するか、単一車両が駐車可能な第2種類の駐車場付近に前記自車両が位置するかを判定し、
     前記自車両が前記第1種類の駐車場内に位置すると判定した場合に、前記複数の駐車区画のうちいずれか1つの駐車区画である対象駐車区画に前記自車両が駐車する際に、前記複数の駐車区画で共通して駐車区画であることを表す物標と前記対象駐車区画内の駐車位置との相対位置関係を表すデータを前記学習済物標データとして前記記憶装置に記憶し、
     前記自車両が前記第2種類の駐車場付近に位置すると判定した場合に、前記第2種類の駐車場に前記自車両が駐車する際に前記第2種類の駐車場付近で検出した物標と前記目標駐車位置との相対位置関係を表すデータを前記学習済物標データとして前記記憶装置に記憶する、
     ことを特徴とする駐車支援方法。
  2.  前記自車両が前記第1種類の駐車場内に位置すると判定した場合に、前記複数の駐車区画のうちいずれか1つを選択する乗員の選択入力を受け付けることにより、前記自車両を駐車する駐車区画を選択することを特徴とする請求項1に記載の駐車支援方法。
  3.  前記自車両の周囲を撮影して得られる画像である周囲画像に類似パターンが連続するか否かを判定し、
     前記周囲画像に類似パターンが連続する場合に、前記自車両が前記第1種類の駐車場内に位置すると判定する、
     ことを特徴とする請求項1に記載の駐車支援方法。
  4.  前記自車両が備える測位装置の測位結果と地図情報とに基づいて、前記自車両が前記第1種類の駐車場内に位置するか否かを判定する、
     ことを特徴とする請求項1に記載の駐車支援方法。
  5.  前記対象駐車区画の前後方向両端部のうち前記対象駐車区画に隣接する車路側の端部の路面標示と前記対象駐車区画内の駐車位置との相対位置関係を表すデータを前記学習済物標データとして前記記憶装置に記憶することを特徴とする請求項1~4のいずれか一項に記載の駐車支援方法。
  6.  前記対象駐車区画の前後方向両端部のうち前記対象駐車区画に隣接する車路と反対側の端部の路面標示と前記対象駐車区画内の駐車位置との相対位置関係を表すデータを前記学習済物標データとして前記記憶装置に記憶することを特徴とする請求項1~4のいずれか一項に記載の駐車支援方法。
  7.  前記対象駐車区画内に設けられた路面標示と前記対象駐車区画内の駐車位置との相対位置関係を表すデータを前記学習済物標データとして前記記憶装置に記憶することを特徴とする請求項1~4のいずれか一項に記載の駐車支援方法。
  8.  自車両の周囲の物標を検出するセンサと、
     記憶装置と、
     予め、目標駐車位置の周囲に存在する物標と前記目標駐車位置との相対位置関係を表すデータを学習済物標データとして前記記憶装置に記憶し、前記センサにより前記自車両の周囲に存在する物標である周囲物標の位置を検出し、前記学習済物標データと前記周囲物標の位置とに基づいて、前記目標駐車位置と前記自車両の現在位置との相対位置関係を算出し、前記目標駐車位置と前記自車両の現在位置との相対位置関係に基づいて前記自車両の現在位置から前記目標駐車位置へ至る走行軌道を算出し、前記走行軌道に基づいて前記目標駐車位置への前記自車両の駐車を支援するコントローラと、を備え、
     前記コントローラは、
     複数の駐車区画を有する第1種類の駐車場内に前記自車両が位置するか、単一車両が駐車可能な第2種類の駐車場付近に前記自車両が位置するかを判定し、
     前記自車両が前記第1種類の駐車場内に位置すると判定した場合に、前記複数の駐車区画のうちいずれか1つの駐車区画である対象駐車区画に前記自車両が駐車する際に、前記複数の駐車区画で共通して駐車区画であることを表す物標と前記対象駐車区画内の駐車位置との相対位置関係を表すデータを前記学習済物標データとして前記記憶装置に記憶し、
     前記自車両が前記第2種類の駐車場付近に位置すると判定した場合に、前記第2種類の駐車場に前記自車両が駐車する際に前記第2種類の駐車場付近で検出した物標と前記目標駐車位置との相対位置関係を表すデータを前記学習済物標データとして前記記憶装置に記憶することを特徴とする駐車支援装置。
PCT/JP2022/025333 2022-06-24 2022-06-24 駐車支援方法及び駐車支援装置 WO2023248468A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/025333 WO2023248468A1 (ja) 2022-06-24 2022-06-24 駐車支援方法及び駐車支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/025333 WO2023248468A1 (ja) 2022-06-24 2022-06-24 駐車支援方法及び駐車支援装置

Publications (1)

Publication Number Publication Date
WO2023248468A1 true WO2023248468A1 (ja) 2023-12-28

Family

ID=89379349

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/025333 WO2023248468A1 (ja) 2022-06-24 2022-06-24 駐車支援方法及び駐車支援装置

Country Status (1)

Country Link
WO (1) WO2023248468A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007122862A1 (ja) * 2006-04-25 2007-11-01 Toyota Jidosha Kabushiki Kaisha 駐車支援装置及び駐車支援方法
JP2018041176A (ja) * 2016-09-05 2018-03-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 駐車位置特定方法、駐車位置学習方法、駐車位置特定システム、駐車位置学習装置およびプログラム
JP2020062962A (ja) * 2018-10-17 2020-04-23 日産自動車株式会社 駐車支援方法及び駐車支援装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007122862A1 (ja) * 2006-04-25 2007-11-01 Toyota Jidosha Kabushiki Kaisha 駐車支援装置及び駐車支援方法
JP2018041176A (ja) * 2016-09-05 2018-03-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 駐車位置特定方法、駐車位置学習方法、駐車位置特定システム、駐車位置学習装置およびプログラム
JP2020062962A (ja) * 2018-10-17 2020-04-23 日産自動車株式会社 駐車支援方法及び駐車支援装置

Similar Documents

Publication Publication Date Title
EP2429877B1 (en) Camera system for use in vehicle parking
JP5313072B2 (ja) 外界認識装置
JP4940168B2 (ja) 駐車スペース認識装置
JP6926976B2 (ja) 駐車支援装置及びコンピュータプログラム
CN111044066B (zh) 支援控制***
US10926701B2 (en) Parking assistance method and parking assistance device
JP2007309670A (ja) 車両位置検出装置
EP2047213B1 (en) Generating a map
JP5273068B2 (ja) 車両周辺監視装置
JP2001277969A (ja) 車両誘導方法、車両誘導システムおよびコンピュータ読取り可能な記憶媒体
JP4703544B2 (ja) 運転支援装置
US20200180510A1 (en) Parking Assistance Method and Parking Assistance Device
WO2023248468A1 (ja) 駐車支援方法及び駐車支援装置
WO2021162001A1 (ja) 駐車支援装置および駐車支援方法
WO2024013807A1 (ja) 駐車支援方法及び駐車支援装置
JP7491476B2 (ja) 駐車支援方法及び駐車支援装置
JP7473087B2 (ja) 駐車支援装置、駐車支援方法
EP3244233B1 (en) Apparatus and method for automated parking
WO2023119656A1 (ja) 駐車支援方法及び駐車支援装置
JP6705271B2 (ja) 移動体の自動運転制御システム
WO2023166738A1 (ja) 駐車支援方法及び駐車支援装置
US11884265B1 (en) Parking assistance method and parking assistance device
WO2024018538A1 (ja) 駐車支援方法及び駐車支援装置
US20240157965A1 (en) Driving assistance device and driving assistance method
JP2023130127A (ja) 駐車支援方法及び駐車支援装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22947062

Country of ref document: EP

Kind code of ref document: A1