WO2023188687A1 - 出庫支援方法及び出庫支援装置 - Google Patents

出庫支援方法及び出庫支援装置 Download PDF

Info

Publication number
WO2023188687A1
WO2023188687A1 PCT/JP2023/000688 JP2023000688W WO2023188687A1 WO 2023188687 A1 WO2023188687 A1 WO 2023188687A1 JP 2023000688 W JP2023000688 W JP 2023000688W WO 2023188687 A1 WO2023188687 A1 WO 2023188687A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
warehousing
area
exit
positional relationship
Prior art date
Application number
PCT/JP2023/000688
Other languages
English (en)
French (fr)
Inventor
琢磨 飯田
勝太 赤浦
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Publication of WO2023188687A1 publication Critical patent/WO2023188687A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention

Definitions

  • the present disclosure relates to an exit support method and an exit support device.
  • parking support technology has been known in which the vehicle is moved automatically when the vehicle is parked.
  • One such parking support is to store the parking position (parking position) and calculate the driving route in real time from the relative position between the parking position and the vehicle's current position (parking start position). (warehousing) has been disclosed (for example, Patent Document 1).
  • the present disclosure provides an exit support method and an exit support device that include an exit function.
  • the leaving support method is a leaving support method executed by a leaving support device that supports parking and leaving of a vehicle, and includes a feature point recognition step, a first estimation step, a control step, a storage step, and a second estimation. Contains steps.
  • the feature point recognition step uses a sensor included in the vehicle to acquire feature points existing around the vehicle.
  • the first estimation step includes setting information in which the position of the warehousing area where the vehicle is to be warehousing and the positional relationship with feature points existing around the warehousing area are stored in association with each other, and the setting information is acquired in the feature point recognition step.
  • the positional relationship between the current position of the vehicle and the storage area is estimated based on the determined feature points.
  • the control step acquires a route from the current position of the vehicle to the storage area based on the positional relationship estimated in the first estimation step, and moves the vehicle to the storage area along the route.
  • the storing step stores, in the setting information, a warehousing start position of the vehicle that has started moving to the warehousing area.
  • the warehousing start position stored in the setting information in the storage step is set as the warehousing area of the destination, and is acquired in the feature point recognition step.
  • the positional relationship between the current position of the vehicle and the exit area is estimated based on the determined feature points.
  • the control step includes acquiring a route from the current position of the vehicle to the exit area based on the positional relationship estimated in the second estimation step, and moving the vehicle to the exit area along the route.
  • FIG. 1 is a block diagram showing an example of the configuration of a delivery support device according to an embodiment.
  • FIG. 2 is a block diagram showing an example of the functional configuration of the exit support device 1 according to the embodiment.
  • FIG. 3 is a flowchart illustrating an example of the entire process executed by the exit support device according to the embodiment.
  • FIG. 4 is a flowchart illustrating an example of a process executed by the exit support device according to the embodiment.
  • FIG. 5 is a flowchart illustrating an example of a process executed by the exit support device according to the embodiment.
  • An example of a usage scene of the exit support device of this embodiment is a case where a vehicle is exited from a parking lot such as a home, and the vehicle automatically runs after the user has parked the vehicle.
  • the user instructs the vehicle to automatically drive the vehicle into the parking lot, and causes the vehicle to enter the parking space or other parking position detected by the vehicle. After that, the user may leave the vehicle.
  • a vehicle is to be left by automatic driving, there is a problem in that the vehicle cannot generate a leaving route because the leaving location of the destination cannot be detected, and the vehicle cannot be left by automatic driving.
  • the vehicle can determine the warehousing position by detecting parking slots, parking spaces surrounded by garages, etc.
  • the vehicle does not have a target frame or a characteristic object, so the leaving position cannot be detected or determined.
  • the exit support device 1 and other configurations The configuration of the exit support device 1 will be explained based on FIG. 1.
  • the exit support device 1 is an in-vehicle device mounted on a vehicle.
  • the vehicle equipped with the exit support device 1 will be referred to as the own vehicle.
  • the sending support device 1 is CPU (Central Processing Unit) 3, ROM (READ ONLY MEMORY), for example, RAM (RANDOM Access Memory) or ROM (READ ON).
  • Semiconductor memory such as Ly Memory
  • storage unit 5 is configured as a normal computer.
  • Each function of the delivery support device 1 is realized by the CPU 3 executing a program installed in the storage unit 5. Further, each function of the delivery support device 1 executes a method corresponding to the program by executing this program. Note that the exit support device 1 may include one computer or a plurality of computers.
  • the storage unit 5 further stores map information.
  • map information is stored that includes feature point information such as various three-dimensional structures and road surface textures around the vehicle.
  • the map information includes the positional relationship X1 between the warehousing area and a plurality of feature points.
  • the feature point is, for example, a part of the contour of the target, and includes a three-dimensional structure such as a building, the texture of a road surface, and the like.
  • the warehousing area may be, for example, a home parking lot or the like, as long as it is an area where the vehicle can be parked.
  • the exit support device 1 creates or modifies map information.
  • the user cooperates with the user input device 29 to input the position of the warehousing area.
  • the storage unit 5 stores the input position of the warehousing area.
  • the own vehicle includes a user input device 29, a notification device 31, a wave transmitting/receiving unit 33, an imaging device 35, a communication device 37, a GPS (Global Positioning System) 39, It includes a steering device 41, a drive device 43, and a braking device 45.
  • a user input device 29 a notification device 31, a wave transmitting/receiving unit 33, an imaging device 35, a communication device 37, a GPS (Global Positioning System) 39, It includes a steering device 41, a drive device 43, and a braking device 45.
  • the user input device 29 is provided inside the cabin of the host vehicle. User input device 29 accepts user input. The user input device 29 sends a signal corresponding to the user's input to the exit support device 1 . Note that the user input device 29 may be a user's mobile terminal or wearable terminal.
  • the notification device 31 is, for example, a display device, and the display device is a liquid crystal display or an organic EL (Electro Luminescence) display. Further, the display device may also serve as a touch panel. Note that the display device may be a head-up display capable of displaying an image by projecting the image onto the windshield. Moreover, the notification device 31 may be a speaker or the like that outputs audio, as another example.
  • the display device is a liquid crystal display or an organic EL (Electro Luminescence) display. Further, the display device may also serve as a touch panel. Note that the display device may be a head-up display capable of displaying an image by projecting the image onto the windshield. Moreover, the notification device 31 may be a speaker or the like that outputs audio, as another example.
  • the wave transmitting/receiving unit 33 is, for example, a distance measuring sensor.
  • the ranging sensor is, for example, an ultrasonic sonar.
  • ultrasonic sonar emits ultrasonic waves when a vehicle is driving in a parking lot, and based on the detected reflected waves, it determines the distance and direction to obstacles around the vehicle. Detect. Then, the ultrasonic sonar calculates the contour points of the obstacle based on the distance to the obstacle, and detects the characteristic points of the obstacle based on the contour points.
  • the distance measurement sensor is not limited to an ultrasonic sensor, and may be, for example, a millimeter wave radar or LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging).
  • LiDAR Light Detection and Ranging, Laser Imaging Detection and Ranging
  • the imaging device 35 is, for example, a visible light camera.
  • the vehicle includes a first imaging device that images the front of the vehicle, a second imaging device that images the rear of the vehicle, a third imaging device that images the left side of the vehicle, and a fourth imaging device that images the right side of the vehicle. Equipped with an imaging device.
  • imaging device 35 is applied to, for example, detecting feature points of objects around the vehicle and estimating the current position of the vehicle from the positional relationship between the vehicle and the feature points. Ru.
  • the imaging device 35 outputs the captured image signal to the exit support device 1.
  • the imaging device 35 is not limited to a visible light camera, and may be, for example, a CCD (Charge Coupled Device) camera or a CMOS (Complementary Metal-Oxide Semiconductor) camera.
  • the image to be captured may be a still image or a moving image.
  • the imaging device 35 may be a camera built into the vehicle, or may be a camera of a drive recorder retrofitted to the vehicle. Note that, as a sensor for estimating the current position of the vehicle, an ultrasonic sensor as a ranging sensor, LiDAR, radar, or the like may be used instead of the imaging device 35.
  • the communication device 37 performs wireless communication with a terminal 59 (for example, a smartphone, a tablet terminal, etc.) outside the own vehicle and a transmitting device 60.
  • the GPS 39 acquires position information of the own vehicle.
  • the GPS 39 outputs the acquired position information to the exit support device 1.
  • the steering device 41 steers the host vehicle in response to instructions from the exit support device 1.
  • the drive device 43 drives the host vehicle in response to instructions from the exit support device 1 .
  • the braking device 45 brakes the own vehicle in response to instructions from the exit support device 1 .
  • the exit support device 1 includes a feature point recognition section 7, a first estimation section 9, a second estimation section 10, a route generation section 11, a control section 13, an exit direction setting section 16, and an exit area determination section. 18, an instruction reception section 19, a distance detection section 21, a notification section 23, and a communication section 25.
  • each functional block of this embodiment may be realized by a computer program. Further, each process of the present embodiment may be realized by hardware, or may be realized by software (including cases where it is realized together with an OS (operating system), middleware, or a predetermined library). Furthermore, it may be realized by mixed processing of software and hardware.
  • OS operating system
  • middleware middleware
  • predetermined library predetermined library
  • the feature point recognition unit 7 extracts feature points from the surrounding image captured by the imaging device 35.
  • the method of extracting feature points by the feature point recognition unit 7 is not particularly limited, and any known method may be applied.
  • the feature point recognition unit 7 extracts feature points using a method such as FAST (Features from Accelerated Segment Test) or ORB (Oriented FAST and Rotated BRIEF).
  • the feature point recognition unit 7 acquires surrounding feature points Y1 at the time of warehousing.
  • the feature point recognition unit 7 stores the acquired feature point Y1 at the time of warehousing in the storage unit 5. Further, the feature point recognition unit 7 associates the acquired feature point Y1 at the time of warehousing with the warehousing start position and stores this in the storage unit 5 as setting information.
  • the feature point recognition unit 7 acquires the relative positional relationship (hereinafter also referred to as positional relationship ⁇ 1) between the surrounding feature points stored in the storage unit 5 at the time of warehousing and the host vehicle. Then, the feature point recognition unit 7 receives the extracted feature points and the feature points stored in the storage unit 5. The feature point recognition unit 7 matches the feature points extracted from the captured image with the stored feature points using pattern matching, feature quantity search, or the like.
  • the feature point recognition unit 7 randomly selects several feature points from among the feature points extracted from the surrounding images and that could be matched with the stored feature points, and selects these feature points at random.
  • the positional relationship ⁇ 1 is estimated based on the positions of the several feature points in the camera image and the three-dimensional positions of the several feature points in real space.
  • the feature point recognition unit 7 acquires the surrounding feature points Y2 at the time of leaving the warehouse.
  • the feature point recognition unit 7 stores the acquired feature point Y2 at the time of leaving the warehouse in the storage unit 5.
  • the feature point recognition unit 7 also acquires the relative positional relationship between the recognized feature points and the own vehicle. Further, the feature point recognition unit 7 obtains the relative positional relationship ⁇ 2 between the surrounding feature points and the own vehicle at the time of leaving the garage by comparing the feature point Y2 and the positional relationship X1.
  • the first estimating unit 9 reads from the storage unit 5 the positional relationship X1 between the surrounding feature points, the warehousing area, and a plurality of feature points at the time of warehousing. Further, the first estimation unit 9 calculates the relative relationship between the own vehicle and the warehousing area based on the read positional relationship X1, the surrounding feature points at the time of warehousing, and the relative positional relationship ⁇ 1 with the own vehicle. Estimate the positional relationship Z1.
  • the second estimation unit 10 reads the warehousing start position from the storage unit 5 and sets the warehousing start position as the warehousing area of the warehousing destination. Further, the second estimation unit 10 reads out the positional relationship X1 between the recognized feature point and the delivery area from the storage unit. Further, the second estimating unit 10 estimates a relative positional relationship Z2 between the own vehicle and the exit area based on the read positional relationship X1 and the positional relationship ⁇ 2.
  • the feature point recognition unit 7 may perform pattern matching between the surrounding feature points Y1 at the time of parking and the surrounding feature points Y2 at the time of leaving the garage, and estimate the position of the own vehicle with respect to each feature point.
  • the feature point recognition unit 7 may perform pattern matching between the surrounding feature points Y1 at the time of parking and the surrounding feature points Y2 at the time of leaving the warehouse, and estimate the position of the host vehicle relative to the entry start position.
  • the route generation unit 11 generates a route from the current position of the own vehicle to the warehousing area based on the relative positional relationship Z1 acquired by the first estimation unit 9. Note that a known technique can be applied to the method by which the route generation unit 11 generates the route.
  • the route generation unit 11 generates a route from the current position of the host vehicle to the exit area based on the relative positional relationship Z2 acquired by the second estimation unit 10.
  • the control unit 13 causes the own vehicle to travel for a predetermined time or a predetermined distance along the route generated by the route generation unit 11.
  • the control unit 13 cooperates with the steering device 41, the drive device 43, and the brake device 45 to cause the own vehicle to travel along the route.
  • the control unit 13 stores, in setting information, the warehousing start position of the vehicle that has started moving to the warehousing area, and the positional relationship between the warehousing start position, the warehousing area, and the positions of the plurality of feature points.
  • the storage unit 5 then stores the warehousing start position of the vehicle that has started moving to the warehousing area.
  • control unit 13 causes the own vehicle to travel along the route for a predetermined time or a predetermined distance. Furthermore, the control unit 14 cooperates with the steering device 41, the drive device 43, and the braking device 45 to cause the host vehicle to travel along the route. Further, the control unit 13 stores, in the setting information, the leaving start position of the vehicle that has started moving to the leaving area, and the positional relationship between the leaving start position, the warehousing area, and the positions of the plurality of feature points.
  • control unit 13 controls the traveling of the own vehicle according to the received instructions. Examples of the contents of the instruction include stopping, restarting, decelerating, accelerating, reversing, and slowing down the own vehicle. Further, the control unit 13 determines whether or not leaving the warehouse to the leaving area has been completed.
  • the exit direction setting unit 16 performs processing to determine the exit direction.
  • the exit direction setting unit 16 determines whether a default exit direction has been set in advance for the determined exit area.
  • the leaving direction means the direction of the own vehicle when the own vehicle leaves the parking area.
  • the exit direction setting unit 16 stores the input default exit direction in the storage unit.
  • the exit direction setting unit 16 displays multiple options on the display 31A. Each option corresponds to one exit direction. Furthermore, the exit direction setting unit 16 determines the exit direction corresponding to the option selected by the user. The exit direction setting unit 16 determines the default exit direction.
  • the warehousing area determination unit 18 performs warehousing area determination processing. Further, the exit area determination unit 18 determines whether the positions of a plurality of exit areas are stored in the storage unit. Further, the delivery area determination unit 18 determines whether a default delivery area has been set in advance.
  • the shipping area determining unit 18 displays multiple options on the display 31A. Each option corresponds to one shipping area. Further, the shipping area determination unit 18 determines a single shipping area.
  • the instruction receiving unit 19 determines whether an instruction to start automatic exit has been input to the user input device 29.
  • the distance detection unit 21 cooperates with the GPS 39 to obtain the position of the own vehicle. Note that the distance detection unit 21 may store the acquired position of the own vehicle in the storage unit 5 as the warehousing start position.
  • the notification unit 23 cooperates with the notification device 31 to notify the user.
  • the user is a passenger of the own vehicle.
  • the content of the notification is that automatic exit can be started and that the user is prompted to input an instruction to start automatic exit. Further, the notification unit 23 cooperates with the notification device 31 to notify the user of the completion of leaving the warehouse.
  • the communication unit 25 cooperates with the communication device 37 to receive the transmitted instruction.
  • the map information further includes a shipping area.
  • the leaving area is an area where the vehicle can be left.
  • the warehousing area is the warehousing start position associated with the feature point Y1 acquired by the above-described feature point recognition unit 7.
  • the feature points are some of the targets that exist around the delivery area.
  • the feature point is, for example, a part of the contour of the target, such as a three-dimensional structure such as a building, the texture of a road surface, and the like.
  • the exit support device 1 can create or modify map information.
  • the user can input the location of the exit area in cooperation with the user input device 29 .
  • the storage unit 5 stores the input location of the delivery area.
  • step S101 the notification unit 23 cooperates with the notification device 31 to notify the user.
  • the user can input an instruction to start automatic exit into the user input device 29.
  • the automatic delivery start instruction corresponds to the user's instruction.
  • step S102 the instruction receiving unit 19 determines whether an instruction to start automatic exit has been input to the user input device 29.
  • the instruction receiving unit 19 proceeds to step S103 when an instruction to start automatic exit is input, and ends this process when an instruction to start automatic exit is not input. That is, the process proceeds to step S103 with the necessary condition that an instruction to start automatic delivery has been input.
  • step S103 the feature point recognition unit 7 cooperates with the imaging device 35 to obtain an image representing the surroundings of the host vehicle.
  • step S104 the feature point recognition unit 7 executes a process of recognizing feature points in the video acquired in step S103. Recognition of feature points can be performed using a well-known image recognition technique.
  • the recognized feature point is defined as feature point Y2.
  • the feature point Y2 includes the position of the feature point in the video, the size of the feature point in the video, the direction of the feature point in the video, and the like.
  • the feature point recognition unit 7 acquires the feature point Y2.
  • the feature point recognition unit 7 stores the acquired feature point Y2 in the storage unit 5.
  • step S105 the feature point recognition unit 7 determines whether the feature point was recognized in the process of step S104.
  • the feature point recognition unit 7 proceeds to step S106 if the feature point can be recognized, and returns to step S103 if the feature point cannot be recognized.
  • step S106 the feature point recognition unit 7 acquires the relative positional relationship between the feature points recognized in the process of step S104 and the host vehicle.
  • the feature point recognition unit 7 can obtain the positional relationship ⁇ 2 by comparing the feature point Y2 and the positional relationship X1.
  • step S107 the warehousing area determination unit 18 performs warehousing area determination processing. This shipping area determination process will be explained based on FIG. 4.
  • step S211 in FIG. 4 the exit area determination unit 18 determines whether the locations of multiple exit areas are stored in the storage unit 5. The exit area determination unit 18 proceeds to step S212 when the positions of a plurality of exit areas are stored, and proceeds to step S216 when the position of a single exit area is stored.
  • the positions of the plurality of exit areas include the warehousing start position of the vehicle that has started moving to the warehousing area, which is included in the setting information stored in the storage unit 5 by the control unit 13.
  • the warehousing start position (a plurality of warehousing areas) of each automatic warehousing may be stored in the storage unit 5.
  • step S212 the delivery area determination unit 18 determines whether a default delivery area has been set in advance.
  • the user can, for example, cooperate with the user input device 29 to input a default shipping area in advance.
  • the default unloading area may be the warehousing start position of the vehicle that has started moving to the warehousing area, which is included in the setting information stored in the storage unit 5 by the control unit 13 in step S11.
  • the shipping area determination unit 18 stores the input default shipping area in the storage unit 5. If the default delivery area has not been set, the process advances to step S213, and if the default delivery area has been set, the process advances to step S215.
  • step S213 the delivery area determination unit 18 displays multiple options on the display 31A.
  • the user can input to the user input device 29 to select any one of the multiple options.
  • the user's selection of one option corresponds to the user's designation.
  • step S214 the exit area determination unit 18 determines the exit area corresponding to the option selected by the user.
  • step S215 the shipping area determination unit 18 determines a default shipping area.
  • step S216 the warehousing area determination unit 18 determines a single warehousing area.
  • step S108 the exit direction setting unit 16 performs an exit direction setting process. This process will be explained based on FIG. 5.
  • step S221 of FIG. 5 the exit direction setting unit 16 determines whether a default exit direction has been set in advance for the exit area determined in step S107.
  • the user can, for example, cooperate with the user input device 29 to input the default exit direction in advance.
  • the exit direction setting unit 16 stores the input default exit direction in the storage unit 5. If the default exit direction has not been set, the process advances to step S222, and if the default exit direction has been set, the process advances to step S224.
  • step S222 the exit direction setting unit 16 displays multiple options on the display 31A.
  • the user can input to the user input device 29 to select any one of the multiple options.
  • the user's selection of one option corresponds to the user's designation.
  • step S223 the exit direction setting unit 16 determines the exit direction corresponding to the option selected by the user.
  • step S224 the exit direction setting unit 16 determines the default exit direction.
  • step S109 the second estimation unit 10 first reads from the storage unit 5 the positional relationship X1 between the feature point recognized in the process of step S104 and the exit area determined in step S108. Next, the second estimating unit 10 estimates the relative positional relationship Z2 between the own vehicle and the exit area determined in step S108 based on the read positional relationship X1 and the positional relationship ⁇ 2 acquired in step S106. do.
  • step S110 the route generation unit 11 generates a route from the position of the own vehicle to the exit area determined in step S108, based on the relative positional relationship Z2 acquired in step S109.
  • the route generating unit 11 generates a route for leaving the host vehicle to the leaving area in the leaving direction determined in step S108.
  • step S111 the control unit 13 causes the own vehicle to travel for a predetermined time or a predetermined distance along the route acquired in step S110.
  • the control unit 13 cooperates with the steering device 41, the drive device 43, and the brake device 45 to cause the own vehicle to travel along the route.
  • the control unit 13 stores, in setting information, the leaving start position of the vehicle that has started moving to the leaving area, and the positional relationship between the leaving start position, the leaving area, and the positions of the plurality of feature points.
  • the user When the own vehicle is traveling along the route, the user may be riding in the own vehicle or may be getting off the own vehicle.
  • Terminal 59 transmits the input instruction.
  • the communication unit 25 cooperates with the communication device 37 to receive the transmitted instruction.
  • the control unit 13 controls the traveling of the host vehicle according to the received instructions.
  • step S112 the control unit 13 determines whether or not the exit to the exit area determined in step S108 has been completed. The control unit 13 proceeds to step S113 if the delivery has been completed, and returns to step S111 if the delivery has not yet been completed. In step S113, the notification unit 23 cooperates with the notification device 31 to notify the user of the completion of leaving the warehouse.
  • the unloading start position can be determined as the unloading position. Therefore, the vehicle can generate an exit route to the exit position and exit the garage by automatic driving. In other words, in the case of leaving the garage, the vehicle can determine the leaving position even if there is no target frame or feature for the leaving destination, and can leave the garage by automatic driving.
  • the exit support device 1 determines the direction in which the vehicle is to be exited to the exit area according to the user's specification.
  • the exit support device 1 acquires a route so that the vehicle can be exited to the exit area in the determined orientation. Therefore, the leaving support device 1 can leave the own vehicle to the leaving area in the direction specified by the user.
  • the exit support device 1 stores a positional relationship X1 for each of the plurality of exit areas.
  • the exit support device 1 can determine one exit area among the plurality of exit areas according to the user's designation.
  • the exit support device 1 estimates the relative positional relationship Z2 based on the positional relationship X1 corresponding to the determined exit area and the positional relationship ⁇ 2. Therefore, the leaving support device 1 can leave the own vehicle to one leaving area specified by the user among the plurality of leaving areas.
  • step S102 determines in step S102 that an instruction to start automatic exit has been input, it executes the processes from step S103 onwards. Therefore, automatic exit can be suppressed when the user does not wish to do so.
  • the leaving support device 1 may provide notification so that the own vehicle can be recognized from the outside of the own vehicle.
  • the notification is, for example, turning on the hazard lamp of the own vehicle. This improves the safety of the own vehicle and the surroundings of the own vehicle.
  • the exit support device 1 may cooperate with the wave transmitting/receiving unit 33 and the like to detect an obstacle and calculate the risk of the own vehicle colliding with the obstacle.
  • the exit support device 1 can cooperate with the notification device 31 to notify the user boarding the own vehicle or stop the own vehicle. can.
  • the exit support device 1 may detect an abnormality in the behavior of the own vehicle using a known sensor when executing automatic exit.
  • An example of an abnormal behavior is when the tires of the vehicle become stuck in a snowy road, making the vehicle unable to drive.
  • the exit support device 1 detects an abnormality in behavior, it can notify the user in cooperation with the notification device 31.
  • the exit support device 1 may recognize feature points using a sensor other than the imaging device 35.
  • the exit support device 1 may acquire the positional relationship X1 using a sensor other than the imaging device 35.
  • the exit support device 1 compares video information obtained in cooperation with the imaging device 35 with specific information stored in advance, and determines whether the vehicle is located at a preset specific location. It is possible to judge whether or not.
  • the specific information is, for example, information on an image obtained in cooperation with the imaging device 35 when the host vehicle is at a specific location. Then, when the vehicle is located at a specific location, the exit support device 1 can execute the processing from step S103 onwards.
  • the leaving support device 1 may execute the processing from step S103 onwards, using the fact that the engine of the host vehicle has started as a trigger. Furthermore, the delivery support device 1 may execute the processing from step S103 onwards, using the user's input on the user input device 29 as a trigger.
  • the exit support device 1 may store in advance the route from the current position of the own vehicle to the exit area in the storage unit 5.
  • the exit support device 1 can read a route that matches the current position of the own vehicle and the exit area determined in step S107 from among the stored routes. Furthermore, if there is no route that perfectly matches the current position of the host vehicle and the exit area determined in step S107, the exit support device 1 reads the closest route, corrects the read route as appropriate, and steps S111. You can create a route for use in .
  • the retrieval support device 1 detects the vehicle based on the warehousing start position of the vehicle that has started moving to the warehousing area and the feature points acquired by the feature point recognition unit 7 during the movement process from the warehousing start position to the warehousing area.
  • the positional relationship between the warehousing start position of the vehicle and the positions of a plurality of feature points existing around the warehousing start position of the vehicle may be stored in association with each other.
  • the warehousing support device 1 stores the positional relationship between the warehousing start position of the vehicle and the positions of a plurality of feature points existing around the warehousing start position of the vehicle in the storage unit 5 by associating and storing the positional relationship. Map information can be updated.
  • the exit support device 1 transmits information such as feature point information around the own vehicle, feature point information at the time of parking, and parking start position to the cloud, and performs processing (characteristics) of the exit support device of this embodiment on the cloud.
  • a configuration may also be adopted in which a point matching process and a route generation process to the exit area are performed, and the route to the exit area is transmitted from the cloud to the exit support device 1.
  • a plurality of functions of one component in the above embodiment may be realized by a plurality of components, or a single function of one component may be realized by a plurality of components. Further, a plurality of functions possessed by a plurality of constituent elements may be realized by one constituent element, or one function realized by a plurality of constituent elements may be realized by one constituent element. Further, a part of the configuration of the above embodiment may be omitted. Further, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of other embodiments. Note that all aspects included in the technical idea specified from the words described in the claims are embodiments of the present disclosure.
  • exit support device In addition to the above-mentioned exit support device, systems including the exit support device as a component, programs for making a computer function as the exit support device, recording media recording this program, exit support methods, vehicle route generation methods, etc.
  • the present disclosure can also be implemented in various forms.
  • Exit support device 5 Storage unit 7 Feature point recognition unit 9 First estimation unit 10 Second estimation unit 11 Route generation unit 13 Control unit 16 Exit direction setting unit 18 Exit area determination unit 19 Instruction reception unit 21 Distance detection unit 23 Notification unit 25 communication unit 31 notification device 33 wave transmitting/receiving unit 35 imaging device

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

本開示に係る出庫支援方法は以下のステップを含む。特徴点認識ステップは、車両の周囲の特徴点を取得し、第1推測ステップは、入庫領域の位置と、入庫領域の周囲に存在する特徴点との位置関係を示す設定情報と、特徴点とに基づき、車両の現在位置と入庫領域との位置関係を推測する。制御ステップは、位置関係に基づき、車両を入庫領域まで移動させ、記憶ステップは、入庫領域への移動が開始された車両の入庫開始位置を設定情報に記憶する。第2推測ステップは、設定情報に記憶された入庫開始位置を出庫先の出庫領域とし、特徴点に基づいて、車両の現在位置と出庫領域との位置関係を推測する。さらに、制御ステップは、位置関係に基づき、車両を出庫領域まで移動させる。

Description

出庫支援方法及び出庫支援装置
 本開示は出庫支援方法及び出庫支援装置に関する。
 従来、車両の入庫の際に自動運転により車両を移動させる駐車支援の技術が知られている。このような駐車支援の1つに、駐車位置(入庫位置)を記憶し、駐車位置と車両の現在位置(入庫開始位置)との相対位置から、リアルタイムに走行経路を算出して、車両の駐車(入庫)を実現している技術が開示されている(例えば、特許文献1)。
特開2019-137158号公報
 本開示は、出庫機能を備える出庫支援方法及び出庫支援装置を提供する。
 本開示に係る出庫支援方法は、車両の入庫及び出庫を支援する出庫支援装置で実行される出庫支援方法であって、特徴点認識ステップ、第1推測ステップ、制御ステップ、記憶ステップ及び第2推測ステップを含む。特徴点認識ステップは、前記車両が備えるセンサを用いて、前記車両の周囲に存在する特徴点を取得する。第1推測ステップは、前記車両の入庫先となる入庫領域の位置と、前記入庫領域の周囲に存在する特徴点との位置関係を対応付けて記憶した設定情報と、前記特徴点認識ステップで取得された前記特徴点とに基づき、前記車両の現在位置と前記入庫領域との位置関係を推測する。制御ステップは、前記第1推測ステップで推測された前記位置関係に基づき、前記車両の現在位置から前記入庫領域までの経路を取得し、当該経路に沿って前記車両を前記入庫領域まで移動させる。記憶ステップは、前記入庫領域への移動が開始された前記車両の入庫開始位置を前記設定情報に記憶する。第2推測ステップは、前記入庫領域から前記車両の出庫が指示されると、前記記憶ステップで前記設定情報に記憶された前記入庫開始位置を出庫先の出庫領域とし、前記特徴点認識ステップで取得された前記特徴点に基づいて、前記車両の現在位置と前記出庫領域との位置関係を推測する。さらに、制御ステップは、前記第2推測ステップで推測された前記位置関係に基づき、前記車両の現在位置から前記出庫領域までの経路を取得し、当該経路に沿って前記車両を前記出庫領域まで移動させる。
図1は、実施形態に係る出庫支援装置の構成の一例を示すブロック図である。 図2は、実施形態に係る出庫支援装置1の機能構成の一例を示すブロック図である。 図3は、実施形態に係る出庫支援装置が実行する処理の全体の一例を示すフローチャートである。 図4は、実施形態に係る出庫支援装置が実行する処理の一例を示すフローチャートである。 図5は、実施形態に係る出庫支援装置が実行する処理の一例を示すフローチャートである。
 本実施形態の出庫支援装置の利用シーンとしては、自宅等の駐車場から車両を出庫する場合であって、ユーザが車両を入庫した後に、車両が自動走行で出庫を実行するシーンを例示する。
 当該シーンにおいては、ユーザは、車両に自動走行による入庫の実行を指示し、車両が検知した駐車枠等の入庫位置に入庫させる。その後、ユーザは、車両を出庫させる場合がある。しかしながら、車両を自動走行において出庫させる場合、出庫先の出庫位置が検知できないことにより、車両が出庫経路を生成できず、自動走行により出庫できないといった課題があった。
 入庫の場合、車両は駐車枠や、ガレージで囲まれた駐車スペースなどを検知することで、入庫位置を決定することができる。一方、出庫の場合、車両は目標となる枠や、特徴物がないため、出庫位置を検知、決定することができないことに起因する。
<第1実施形態>
 1.出庫支援装置1と、その他の構成
 出庫支援装置1の構成を図1に基づき説明する。出庫支援装置1は、車両に搭載される車載装置である。出庫支援装置1を搭載する車両を以下では自車両とする。図1に示すように、出庫支援装置1は、CPU(Central Processing Unit)3、ROM(Read Only Memory)と、例えば、RAM(Random Access Memory)又はROM(Read Only Memory)等の半導体メモリ(以下、記憶部5ともいう)と、を備えた通常のコンピュータとして構成される。
 出庫支援装置1の各機能は、記憶部5にインストールされているプログラムをCPU3が実行することにより実現される。また、出庫支援装置1の各機能は、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、出庫支援装置1は、1つのコンピュータを備えてもよいし、複数のコンピュータを備えてもよい。
 記憶部5は、地図情報をさらに記憶している。一例として、地図情報は、車両周辺の様々な立体構造物や路面のテクスチャなどの特徴点情報で構成される地図情報を記憶する。また、地図情報は、入庫領域と、複数の特徴点との位置関係X1を含む。なお、特徴点は、例えば、物標の輪郭上の一部であり、建物などの立体構造物や、路面のテクスチャ等が挙げられる。入庫領域は、一例として、自宅の駐車場等であり、自車両が駐車可能な領域であればよい。
 出庫支援装置1は、地図情報を作成又は修正する。ユーザは、ユーザ入力装置29と協働して、入庫領域の位置を入力する。記憶部5は、入力された入庫領域の位置を記憶する。
 図1に示すように、自車両は、出庫支援装置1に加えて、ユーザ入力装置29、通知装置31、送受波部33、撮像装置35、通信装置37、GPS(Global Positioning System))39、操舵装置41、駆動装置43及び制動装置45を備える。
 ユーザ入力装置29は、自車両の車室内に設けられている。ユーザ入力装置29は、ユーザの入力を受け付ける。ユーザ入力装置29は、ユーザの入力に対応する信号を出庫支援装置1に送る。なお、ユーザ入力装置29は、ユーザの携帯端末又はウエアラブル端末であってもよい。
 通知装置31は、一例として、表示装置であり、表示装置は、液晶ディスプレイ又は有機EL(Electro Luminescence)ディスプレイである。また、表示装置は、タッチパネルを兼ねても良い。なお、表示装置がフロントガラスに、画像を投影することで、画像を表示可能なヘッドアップディスプレイとしてもよい。また、通知装置31は、別の一例として、音声を出力するスピーカ等であってもよい。
 送受波部33は、一例として、測距センサである。測距センサは、一例として、超音波ソナーである。例えば、超音波ソナーは、車両が駐車場内を走行している場合に、超音波を照射し、反射されて検出された反射波に基づいて、車両の周囲に存在する障害物までの距離と方位を検出する。そして、超音波ソナーは、障害物までの距離に基づいて障害物の輪郭点を算出し、輪郭点に基づき、障害物の特徴点を検出する。
 なお、測距センサは、超音波センサに限らず、例えば、ミリ波レーダ又はLiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)であってもよい。
 撮像装置35は、一例として、可視光カメラである。車両は、車両の前方を撮像する第1の撮像装置、車両の後方を撮像する第2の撮像装置、車両の左側方を撮像する第3の撮像装置及び車両の右側方を撮像する第4の撮像装置を備える。
 以下、第1の撮像装置、第2の撮像装置、第3の撮像装置及び第4の撮像装置を特に区別しない場合には単に撮像装置35という。また、詳細は後述するが、撮像装置35は、例えば、車両の周囲に存在する物体の特徴点を検出し、車両と特徴点との位置関係から、車両の現在位置を推定する用途に適用される。
 撮像装置35は、撮像した画像信号を出庫支援装置1に出力する。なお、撮像装置35は、可視光カメラに限らず、例えば、CCD(Charge Coupled Device)カメラ又はCMOS(Complementary Metal-Oxide Semiconductor)カメラであってもよい。また、撮像する画像は、静止画であっても動画であってもよい。
 また、撮像装置35は、車両に内蔵されたカメラであっても良いし、車両に後付けされたドライブレコーダのカメラ等であっても良い。なお、車両の現在位置を推定するためのセンサとして、撮像装置35に代えて、測距センサとしての超音波センサ、LiDAR、又は、レーダ等が用いられてもよい。
 通信装置37は、自車両の外部にある端末59(一例として、スマートフォン、タブレット端末等)及び発信装置60との間で無線通信を行う。GPS39は、自車両の位置情報を取得する。GPS39は、取得した位置情報を出庫支援装置1に出力する。
 操舵装置41は、出庫支援装置1の指示に対応して自車両の操舵を行う。駆動装置43は、出庫支援装置1の指示に対応して自車両の駆動を行う。制動装置45は、出庫支援装置1の指示に対応して自車両の制動を行う。
 出庫支援装置1は、図2に示すように、特徴点認識部7、第1推測部9、第2推測部10、経路生成部11、制御部13、出庫方向設定部16、出庫領域決定部18、指示受付部19、距離検出部21、報知部23及び通信部25を備える。
 本実施形態の各機能ブロックの処理の一部又は全部は、コンピュータプログラムにより実現されるものであってもよい。また、本実施形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウェア及びハードウェアの混在処理により実現してもよい。
 特徴点認識部7は、撮像装置35が撮像した周辺画像から特徴点を抽出する。特徴点認識部7による特徴点の抽出の手法は特に限定されるものではなく、公知の手法を適用してよい。例えば、特徴点認識部7は、FAST(Features from Accelerated Segment Test)又はORB (Oriented FAST and Rotated BRIEF)等の手法により特徴点を抽出する。
 特徴点認識部7は、入庫時における周囲の特徴点Y1を取得する。特徴点認識部7は、取得した入庫時における特徴点Y1を記憶部5に記憶する。また、特徴点認識部7は、取得した入庫時における特徴点Y1と入庫開始位置を対応付けて設定情報として記憶部5に記憶する。
 また、特徴点認識部7は、記憶部5が記憶した入庫時における周囲の特徴点と、自車両との相対的な位置関係(以下では位置関係α1ともいう)を取得する。そして、特徴点認識部7は、抽出された特徴点と、記憶部5に記憶されている特徴点とを受信する。特徴点認識部7は、パターンマッチングや特徴量探索等を用いて、撮像画像から抽出された特徴点と、記憶されている特徴点とを照合する。
 さらに、特徴点認識部7は、周辺画像から抽出された特徴点で、かつ記憶されている特徴点と照合することができた特徴点のうち数個の特徴点をランダムに選択して、これらの数個の特徴点のカメラ画像内における位置と、当該数個の特徴点の実空間における三次元位置と、に基づいて、位置関係α1を推定する。
 特徴点認識部7は、出庫時における周囲の特徴点Y2を取得する。特徴点認識部7は、取得した出庫時における特徴点Y2を記憶部5に記憶する。また、特徴点認識部7は、認識した特徴点と、自車両との相対的な位置関係を取得する。さらに、特徴点認識部7は、特徴点Y2と、位置関係X1とを照合することにより、出庫時における周囲の特徴点と、自車両との相対的な位置関係α2を取得する。
 第1推測部9は、入庫時における周囲の特徴点と、入庫領域と、複数の特徴点との位置関係X1を記憶部5から読み出す。また、第1推測部9は、読み出した位置関係X1と、入庫時における周囲の特徴点と、自車両との相対的な位置関係α1とに基づき、自車両と、入庫領域との相対的な位置関係Z1を推測する。
 第2推測部10は、記憶部5から入庫開始位置を読み出し、入庫開始位置を出庫先の出庫領域として設定する。また、第2推測部10は、認識した特徴点と、出庫領域との位置関係X1を記憶部から読み出す。また、第2推測部10は、読み出した位置関係X1と、位置関係α2とに基づき、自車両と、出庫領域との相対的な位置関係Z2を推測する。
 なお、特徴点認識部7は、入庫時における周囲の特徴点Y1と、出庫時における周囲の特徴点Y2とをパターンマッチングを行い、各特徴点に対する自車両の位置を推測してもよい。言い換えると、特徴点認識部7は、入庫時における周囲の特徴点Y1と、出庫時における周囲の特徴点Y2とをパターンマッチングを行い、入庫開始位置に対する自車両の位置を推測してもよい。
 経路生成部11は、第1推測部9が取得した相対的な位置関係Z1に基づき、自車両の現在位置から、入庫領域までの経路を生成する。なお、経路生成部11が経路を生成する方法は、公知の技術を適用することができる。
 また、経路生成部11は、第2推測部10が取得した相対的な位置関係Z2に基づき、自車両の現在位置から、出庫領域までの経路を生成する。
 制御部13は、経路生成部11が生成した経路に沿って、所定時間又は所定距離だけ自車両を走行させる。制御部13は、操舵装置41、駆動装置43及び制動装置45と協働して、自車両を経路に沿って走行させる。制御部13は、入庫領域への移動が開始された車両の入庫開始位置と、当該入庫開始位置と入庫領域及び複数の特徴点の位置との位置関係を設定情報に記憶する。そして、記憶部5は、入庫領域への移動が開始された車両の入庫開始位置を記憶する。
 また、制御部13は、経路に沿って、所定時間又は所定距離だけ自車両を走行させる。さらに、制御部14は、操舵装置41、駆動装置43及び制動装置45と協働して、自車両を経路に沿って走行させる。また、制御部13は、出庫領域への移動が開始された車両の出庫開始位置と、当該出庫開始位置と入庫領域及び複数の特徴点の位置との位置関係を設定情報に記憶する。
 また、制御部13は、受信した指示に応じて自車両の走行を制御する。指示の内容として、例えば、自車両の停止、再発進、減速、加速、後退、徐行等が挙げられる。さらに、制御部13は、出庫領域への出庫が完了したか否かを判断する。
 出庫方向設定部16は、出庫方向を決定する処理を行う。出庫方向設定部16は、決定した出庫領域について、デフォルトの出庫向きが予め設定されているか否かを判断する。出庫向きとは、出庫領域に自車両を出庫したときの自車両の向きを意味する。出庫方向設定部16は、入力されたデフォルトの出庫向きを記憶部に記憶する。
 また、出庫方向設定部16は、ディスプレイ31Aに複数の選択肢を表示する。各選択肢は、それぞれ、1つの出庫向きに対応している。さらに、出庫方向設定部16は、ユーザが選択した選択肢に対応する出庫向きを決定する。出庫方向設定部16は、デフォルトの出庫向きを決定する。
 出庫領域決定部18は、出庫領域決定処理を行う。また、出庫領域決定部18は、複数の出庫領域の位置が記憶部に記憶されているか否かを判断する。さらに、出庫領域決定部18は、デフォルトの出庫領域が予め設定されているか否かを判断する。
 出庫領域決定部18は、ディスプレイ31Aに複数の選択肢を表示する。各選択肢は、それぞれ、1つの出庫領域に対応している。また、出庫領域決定部18は、単一の出庫領域を決定する。
 指示受付部19は、ユーザ入力装置29に自動出庫の開始指示が入力されたか否かを判断する。
 距離検出部21は、GPS39と協働して自車両の位置を取得する。なお、距離検出部21は、取得した自車両の位置を入庫開始位置として記憶部5に記憶してもよい。
 報知部23は、通知装置31と協働してユーザに報知を行う。ユーザとは自車両の乗員である。報知の内容は、自動出庫を開始可能であることと、自動出庫の開始指示の入力を促すことである。また、報知部23は、通知装置31と協働して、出庫の完了をユーザに報知する。
 通信部25は、通信装置37と協働して、送信された指示を受信する。
<出庫支援装置1が実行する出庫支援処理>
 出庫支援装置1が実行する出庫支援処理を図3、図4及び図5に基づき説明する。
 地図情報は、出庫領域をさらに含む。出庫領域とは、自車両を出庫可能な領域である。出庫領域は、上述した特徴点認識部7が取得した特徴点Y1と紐づけられた入庫開始位置である。特徴点は、出庫領域の周囲に存在する物標の一部である。特徴点は、例えば、物標の輪郭上の一部であり、建物などの立体構造物や、路面のテクスチャ等が挙げられる。
 出庫支援装置1は、地図情報を作成又は修正することができる。ユーザは、ユーザ入力装置29と協働して、出庫領域の位置を入力することができる。記憶部5は、入力された出庫領域の位置を記憶する。
 ステップS101において、報知部23は、通知装置31と協働してユーザに報知を行う。なお、ユーザは、ユーザ入力装置29に、自動出庫の開始指示を入力することができる。自動出庫の開始指示はユーザの指示に対応する。
 ステップS102において、指示受付部19は、ユーザ入力装置29に自動出庫の開始指示が入力されたか否かを判断する。指示受付部19は、自動出庫の開始指示が入力された場合はステップS103に進み、自動出庫の開始指示が入力されなかった場合は本処理を終了する。すなわち、自動出庫の開始指示が入力されたことを必要条件として、ステップS103に進む。
 ステップS103において、特徴点認識部7は、撮像装置35と協働して、自車両の周囲を表す映像を取得する。
 ステップS104において、特徴点認識部7は、ステップS103で取得した映像において特徴点を認識する処理を実行する。特徴点の認識は、周知の画像認識技術を用いて行うことができる。認識した特徴点を特徴点Y2とする。特徴点Y2は、映像における特徴点の位置、映像における特徴点の大きさ、映像における特徴点の向き等を含む。特徴点認識部7は特徴点Y2を取得する。特徴点認識部7は、取得した特徴点Y2を記憶部5に記憶する。
 ステップS105において、特徴点認識部7は、ステップS104の処理において特徴点を認識できたか否かを判断する。特徴点認識部7は、特徴点を認識できた場合はステップS106に進み、特徴点を認識できなかった場合はステップS103に戻る。
 ステップS106において、特徴点認識部7は、ステップS104の処理において認識した特徴点と、自車両との相対的な位置関係を取得する。特徴点認識部7は、特徴点Y2と、位置関係X1とを照合することにより、位置関係α2を取得することができる。
 ステップS107において、出庫領域決定部18は、出庫領域決定処理を行う。この出庫領域決定処理を、図4に基づき説明する。
 図4のステップS211において、出庫領域決定部18は、複数の出庫領域の位置が記憶部5に記憶されているか否かを判断する。出庫領域決定部18は、複数の出庫領域の位置が記憶されている場合はステップS212に進み、単一の出庫領域の位置が記憶されている場合はステップS216に進む。
 複数の出庫領域の位置には、制御部13が記憶部5に記憶した設定情報に含まれる、入庫領域への移動が開始された車両の入庫開始位置が含まれている。なお、異なる位置から複数の自動入庫が行われた場合は、それぞれの自動入庫の入庫開始位置(複数の出庫領域)が記憶部5に記憶されていてもよい。
 ステップS212において、出庫領域決定部18は、デフォルトの出庫領域が予め設定されているか否かを判断する。なお、ユーザは、例えば、予め、ユーザ入力装置29と協働してデフォルトの出庫領域を入力しておくことができる。また、デフォルトの出庫領域をステップS11で制御部13が記憶部5に記憶した設定情報に含まれる、入庫領域への移動が開始された車両の入庫開始位置としても良い。
 デフォルトの出庫領域が入力されたとき、出庫領域決定部18は、入力されたデフォルトの出庫領域を記憶部5に記憶する。デフォルトの出庫領域が設定されていない場合はステップS213に進み、デフォルトの出庫領域が設定されている場合はステップS215に進む。
 ステップS213において、出庫領域決定部18は、ディスプレイ31Aに複数の選択肢を表示する。ユーザは、複数の選択肢のうちのいずれか1つを選択する入力をユーザ入力装置29に行うことができる。ユーザが1つの選択肢を選択することは、ユーザの指定に対応する。
 ステップS214において、出庫領域決定部18は、ユーザが選択した選択肢に対応する出庫領域を決定する。ステップS215において、出庫領域決定部18が、デフォルトの出庫領域を決定する。
 ステップS216において、出庫領域決定部18は、単一の出庫領域を決定する。図3に戻り、ステップS108において、出庫方向設定部16が、出庫方向設定処理を行う。この処理を図5に基づき説明する。図5のステップS221において、出庫方向設定部16は、ステップS107で決定した出庫領域について、デフォルトの出庫向きが予め設定されているか否かを判断する。
 なお、ユーザは、例えば、予め、ユーザ入力装置29と協働してデフォルトの出庫向きを入力しておくことができる。デフォルトの出庫向きが入力されたとき、出庫方向設定部16は、入力されたデフォルトの出庫向きを記憶部5に記憶する。デフォルトの出庫向きが設定されていない場合はステップS222に進み、デフォルトの出庫向きが設定されている場合はステップS224に進む。
 ステップS222において、出庫方向設定部16は、ディスプレイ31Aに複数の選択肢を表示する。ユーザは、複数の選択肢のうちのいずれか1つを選択する入力をユーザ入力装置29に行うことができる。ユーザが1つの選択肢を選択することは、ユーザの指定に対応する。
 ステップS223において、出庫方向設定部16は、ユーザが選択した選択肢に対応する出庫向きを決定する。ステップS224において、出庫方向設定部16は、デフォルトの出庫向きを決定する。
 図3に戻り、ステップS109において、第2推測部10が、まず、ステップS104の処理で認識した特徴点と、ステップS108で決定した出庫領域との位置関係X1を記憶部5から読み出す。次に、第2推測部10は、読み出した位置関係X1と、ステップS106で取得した位置関係α2とに基づき、自車両と、ステップS108で決定した出庫領域との相対的な位置関係Z2を推測する。
 ステップS110において、経路生成部11は、ステップS109で取得した相対的な位置関係Z2に基づき、自車両の位置から、ステップS108で決定した出庫領域までの経路を生成する。経路生成部11は、ステップS108で決定した出庫向きで自車両を出庫領域に出庫する経路を生成する。
 ステップS111において、制御部13は、ステップS110で取得した経路に沿って、所定時間又は所定距離だけ自車両を走行させる。制御部13は、操舵装置41、駆動装置43及び制動装置45と協働して、自車両を経路に沿って走行させる。制御部13は、出庫領域への移動が開始された車両の出庫開始位置と、当該出庫開始位置と出庫領域及び複数の特徴点の位置との位置関係を設定情報に記憶する。
 自車両が経路に沿って走行しているとき、ユーザは、自車両に乗車していてもよいし、自車両から降りていてもよい。
 ユーザは、端末59に指示を入力することができる。端末59は、入力された指示を送信する。通信部25は、通信装置37と協働して、送信された指示を受信する。制御部13は、受信した指示に応じて自車両の走行を制御する。
 ステップS112において、制御部13は、ステップS108で決定した出庫領域への出庫が完了したか否かを判断する。制御部13は、出庫が完了した場合はステップS113に進み、出庫が未だ完了していない場合はステップS111に戻る。ステップS113において、報知部23が通知装置31と協働して、出庫の完了をユーザに報知する。
 本実施形態の出庫支援装置によれば、車両を自動走行において出庫させる場合においても、入庫開始位置を記憶することにより、入庫開始位置を出庫位置として決定することができる。そのため、車両は、出庫位置までの出庫経路を生成し自動走行により出庫することができる。言い換えると、出庫の場合において、車両は出庫先の目標となる枠や、特徴物がなくても出庫位置を決定することができ、自動走行により出庫することができる。
 出庫支援装置1は、ユーザの指定に応じて、自車両を出庫領域に出庫する向きを決定する。出庫支援装置1は、決定した向きで自車両を出庫領域に出庫できるように、経路を取得する。そのため、出庫支援装置1は、ユーザが指定した向きで、自車両を出庫領域に出庫することができる。
 出庫支援装置1は、複数の出庫領域のそれぞれについて、位置関係X1を記憶している。出庫支援装置1は、複数の出庫領域のうち、1つの出庫領域を、ユーザの指定に応じて決定することができる。出庫支援装置1は、決定した出庫領域に対応する位置関係X1と、位置関係α2とに基づき、相対的な位置関係Z2を推測する。そのため、出庫支援装置1は、複数の出庫領域のうち、ユーザが指定した1つの出庫領域に自車両を出庫することができる。
 出庫支援装置1は、ステップS102において、自動出庫の開始指示が入力されたと判断した場合に、ステップS103以降の処理を実行する。そのため、ユーザが望まない場合に自動出庫を行うことを抑制できる。
<他の実施形態>
 なお、上述した実施形態は、上述した各装置が有する構成又は機能の一部を変更することで、適宜に変形して実施することも可能である。そこで、以下では、上述した実施形態に係るいくつかの他の実施形態を説明する。なお、以下では、上述した実施形態と異なる点を主に説明することとし、既に説明した内容と共通する点については詳細な説明を省略する。また、以下で説明する他の実施形態は、個別に実施されてもよいし、適宜組み合わせて実施されてもよい。
 出庫支援装置1は、自動出庫を実行している場合、自車両の外部から自車両を認識できるように報知を行ってもよい。報知は、例えば、自車両のハザードランプの点灯等である。これにより、自車両及び自車両の周囲の安全性が向上する。
 出庫支援装置1は、自動出庫を実行しているとき、送受波部33等と協働して障害物を検出し、自車両が障害物と衝突するリスクを算出してもよい。出庫支援装置1は、障害物と衝突するリスクが予め設定された閾値より高い場合、通知装置31と協働して自車両に搭乗するユーザに報知したり、自車両を停止させたりすることができる。
 出庫支援装置1は、自動出庫を実行しているとき、公知のセンサを用いて、自車両の挙動の異常を検出してもよい。挙動の異常として、例えば、自車両のタイヤが雪道などで埋まってしまい、自車両が走行不能な状態になることである。出庫支援装置1は、挙動の異常を検出した場合、通知装置31と協働してユーザに報知することができる。
 出庫支援装置1は、撮像装置35以外のセンサを用いて特徴点を認識してもよい。出庫支援装置1は、撮像装置35以外のセンサを用いて位置関係X1を取得してもよい。
 ステップS103以降の処理を実行するトリガは他のものであってもよい。例えば、出庫支援装置1は、撮像装置35と協働して取得した映像の情報と、予め記憶しておいた特定情報とを比較し、自車両の位置が予め設定された特定地にあるか否かを判断することができる。特定情報とは、例えば、自車両が特定地にあるときに撮像装置35と協働して取得した映像の情報である。そして、出庫支援装置1は、自車両の位置が特定地にある場合に、ステップS103以降の処理を実行することができる。
 また、出庫支援装置1は、自車両のエンジンが始動したことをトリガとして、ステップS103以降の処理を実行してもよい。また、出庫支援装置1は、ユーザ入力装置29にユーザの入力があったことをトリガとして、ステップS103以降の処理を実行してもよい。
 出庫支援装置1は、自車両の現在位置から、出庫領域までの経路を予め記憶部5に記憶しておいてもよい。出庫支援装置1は、ステップS101において、記憶しておいた経路のうち、自車両の現在位置と、ステップS107で決定した出庫領域とに適合する経路を読み出すことができる。また、出庫支援装置1は、自車両の現在位置と、ステップS107で決定した出庫領域とに完全に適合する経路がない場合、最も近い経路を読み出し、読み出した経路を適宜修正して、ステップS111で使用する経路を作成することができる。
 出庫支援装置1は、入庫領域への移動が開始された車両の入庫開始位置と、当該入庫開始位置から入庫領域までの移動過程で、特徴点認識部7が取得する特徴点とに基づき、車両の入庫開始位置と、車両の入庫開始位置の周囲に存在する複数の特徴点の位置との位置関係を対応付けて記憶しておいてもよい。出庫支援装置1は、入庫時に車両の入庫開始位置と、車両の入庫開始位置の周囲に存在する複数の特徴点の位置との位置関係を対応付けて記憶することで、記憶部5に記憶する地図情報を更新することができる。
 出庫支援装置1は、クラウド上に自車両の周囲の特徴点情報、入庫時の特徴点情報、入庫開始位置等の情報を送信し、クラウド上で、本実施形態の出庫支援装置の処理(特徴点のマッチング処理及び出庫領域までの経路生成処理)を行い、出庫領域までの経路をクラウドから出庫支援装置1に送信する構成であってもよい。
 上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、請求の範囲に記載した文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。
 上述した出庫支援装置の他、当該出庫支援装置を構成要素とするシステム、当該出庫支援装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した記録媒体、出庫支援方法、車両経路生成方法等、種々の形態で本開示を実現することもできる。
 1  出庫支援装置
 5  記憶部
 7  特徴点認識部
 9  第1推測部
 10 第2推測部
 11 経路生成部
 13 制御部
 16 出庫方向設定部
 18 出庫領域決定部
 19 指示受付部
 21 距離検出部
 23 報知部
 25 通信部
 31 通知装置
 33 送受波部
 35 撮像装置

Claims (5)

  1.  車両の入庫及び出庫を支援する出庫支援装置で実行される出庫支援方法であって、
     前記車両が備えるセンサを用いて、前記車両の周囲に存在する特徴点を取得する特徴点認識ステップと、
     前記車両の入庫先となる入庫領域の位置と、前記入庫領域の周囲に存在する特徴点との位置関係を対応付けて記憶した設定情報と、前記特徴点認識ステップで取得された前記特徴点とに基づき、前記車両の現在位置と前記入庫領域との位置関係を推測する第1推測ステップと、
     前記第1推測ステップで推測された前記位置関係に基づき、前記車両の現在位置から前記入庫領域までの経路を取得し、当該経路に沿って前記車両を前記入庫領域まで移動させる制御ステップと、
     前記入庫領域への移動が開始された前記車両の入庫開始位置を前記設定情報に記憶する記憶ステップと、
     前記入庫領域から前記車両の出庫が指示されると、前記記憶ステップで前記設定情報に記憶された前記入庫開始位置を出庫先の出庫領域とし、前記特徴点認識ステップで取得された前記特徴点に基づいて、前記車両の現在位置と前記出庫領域との位置関係を推測する第2推測ステップと、を含み、
     前記制御ステップは、前記第2推測ステップで推測された前記位置関係に基づき、前記車両の現在位置から前記出庫領域までの経路を取得し、当該経路に沿って前記車両を前記出庫領域まで移動させる、
     出庫支援方法。
  2.  前記出庫領域に出庫する前記車両の向きを、ユーザの指定に応じて決定する出庫方向設定ステップと、
     を含み、
     前記制御ステップは、前記出庫方向設定ステップが決定した前記向きに応じた前記経路を取得し、前記経路に沿って前記車両を前記出庫領域まで移動させる、
     請求項1に記載の出庫支援方法。
  3.  複数の前記出庫領域のうち、1つの前記出庫領域を、ユーザの指定に応じて決定する出庫領域決定ステップと、
     を含み、
     前記第2推測ステップは、前記出庫領域決定ステップが決定した前記出庫領域に対応する前記位置関係と、前記特徴点認識ステップが認識した前記特徴点と、に基づいて、前記位置関係を推測する、
     請求項1又は2に記載の出庫支援方法。
  4.  前記記憶ステップは、
     前記入庫領域への移動が開始された前記車両の入庫開始位置と、前記入庫開始位置から前記入庫領域までの移動過程で取得された前記特徴点とに基づき、前記入庫開始位置と、前記入庫開始位置の周囲に存在する複数の特徴点を対応付けて記憶する、
     請求項1から3のいずれか1項に記載の出庫支援方法。
  5.  車両の入庫及び出庫を支援する出庫支援装置であって、
     前記車両が備えるセンサを用いて、前記車両の周囲に存在する複数の特徴点を示す特徴点を取得する特徴点認識部と、
     入庫先となる入庫領域の位置と、前記入庫領域の周囲に存在する複数の特徴点の位置との位置関係を対応付けて記憶した設定情報と、前記特徴点認識部で取得された前記特徴点とに基づき、前記車両の現在位置と前記入庫領域との相対的な位置関係を推測する第1推測部と、
     前記第1推測部で推測された前記位置関係に基づき、前記車両の現在位置から前記入庫領域までの経路を取得し、当該経路に沿って前記車両を前記入庫領域まで移動させる制御部と、
     前記入庫領域への移動が開始された前記車両の入庫開始位置と、前記入庫開始位置と前記入庫領域及び前記複数の特徴点の位置との位置関係を前記設定情報に記憶する記憶部と、
     前記入庫領域からの出庫が指示されると、前記記憶部で前記設定情報に記憶された前記入庫開始位置を出庫先の出庫領域とし、前記特徴点認識部で取得された前記特徴点に基づいて、前記車両の現在位置と前記出庫領域との相対的な位置関係を推測する第2推測部と、を備え、
     前記制御部は、前記第2推測部で推測された前記位置関係に基づき、前記車両の現在位置から前記出庫領域までの経路を取得し、当該経路に沿って前記車両を前記出庫領域まで移動させる、
     出庫支援装置。 
PCT/JP2023/000688 2022-03-30 2023-01-12 出庫支援方法及び出庫支援装置 WO2023188687A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022056756A JP2023148624A (ja) 2022-03-30 2022-03-30 出庫支援方法及び出庫支援装置
JP2022-056756 2022-03-30

Publications (1)

Publication Number Publication Date
WO2023188687A1 true WO2023188687A1 (ja) 2023-10-05

Family

ID=88200119

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/000688 WO2023188687A1 (ja) 2022-03-30 2023-01-12 出庫支援方法及び出庫支援装置

Country Status (2)

Country Link
JP (1) JP2023148624A (ja)
WO (1) WO2023188687A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018047222A1 (ja) * 2016-09-06 2018-03-15 日産自動車株式会社 出庫支援方法及び装置
JP2019137158A (ja) * 2018-02-08 2019-08-22 株式会社デンソー 駐車支援装置
JP2020175864A (ja) * 2019-04-23 2020-10-29 日立オートモティブシステムズ株式会社 車両制御装置
JP2020185875A (ja) * 2019-05-14 2020-11-19 本田技研工業株式会社 車両制御装置、端末装置、駐車場管理装置、車両制御方法、およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018047222A1 (ja) * 2016-09-06 2018-03-15 日産自動車株式会社 出庫支援方法及び装置
JP2019137158A (ja) * 2018-02-08 2019-08-22 株式会社デンソー 駐車支援装置
JP2020175864A (ja) * 2019-04-23 2020-10-29 日立オートモティブシステムズ株式会社 車両制御装置
JP2020185875A (ja) * 2019-05-14 2020-11-19 本田技研工業株式会社 車両制御装置、端末装置、駐車場管理装置、車両制御方法、およびプログラム

Also Published As

Publication number Publication date
JP2023148624A (ja) 2023-10-13

Similar Documents

Publication Publication Date Title
JP6997868B2 (ja) 道路標識検出方法、非一時的コンピュータ可読媒体及び道路標識検出システム
US11890986B2 (en) Notification device
US9308913B2 (en) Automatic parking system
US10850739B2 (en) Automatic lane change with lane-biased strategy
JP6190758B2 (ja) 物体認識装置及び車両
US11926313B2 (en) In-vehicle device and control method
JP6614359B2 (ja) 障害物判定方法、駐車支援方法、出庫支援方法、及び障害物判定装置
CN111479726B (zh) 停车控制方法及停车控制装置
US20200210731A1 (en) Vehicle control system, vehicle control method, and storage medium
CN112977416B (zh) 驻车辅助***及其控制方法
WO2019049828A1 (en) INFORMATION PROCESSING APPARATUS, CLEAN POSITION ESTIMATING METHOD, AND PROGRAM
US20220315029A1 (en) Driving support device
CN112977451B (zh) 行驶辅助***及其控制方法
WO2023188687A1 (ja) 出庫支援方法及び出庫支援装置
JP2023112053A (ja) 画像処理装置
CN114715037A (zh) 用于车辆的方法、装置、计算机设备、介质及程序产品
US11763675B2 (en) Information processing apparatus and information processing method
JP2005189936A (ja) 車両制御システム
JP7473087B2 (ja) 駐車支援装置、駐車支援方法
WO2023002863A1 (ja) 運転支援装置、運転支援方法
WO2023002864A1 (ja) 駐車支援装置、駐車支援方法
JP7429141B2 (ja) 駐車支援システム
US20240010231A1 (en) Apparatus for driver assistance and method of controlling the same
US20230356742A1 (en) Driver assistance system and driver assistance method
CN117746672A (zh) 一种泊车入库方法及装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23778726

Country of ref document: EP

Kind code of ref document: A1