WO2017072878A1 - 車両進入判定装置および車両進入判定システム - Google Patents

車両進入判定装置および車両進入判定システム Download PDF

Info

Publication number
WO2017072878A1
WO2017072878A1 PCT/JP2015/080379 JP2015080379W WO2017072878A1 WO 2017072878 A1 WO2017072878 A1 WO 2017072878A1 JP 2015080379 W JP2015080379 W JP 2015080379W WO 2017072878 A1 WO2017072878 A1 WO 2017072878A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
determination
information
host vehicle
unit
Prior art date
Application number
PCT/JP2015/080379
Other languages
English (en)
French (fr)
Inventor
嘉人 副島
真彦 宇野
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2015/080379 priority Critical patent/WO2017072878A1/ja
Publication of WO2017072878A1 publication Critical patent/WO2017072878A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network

Definitions

  • the present invention relates to a vehicle entry determination device and a vehicle entry determination system that determine whether a vehicle can enter a railroad crossing, an intersection, a road with a height restriction, a tunnel, or the like.
  • Patent Document 1 determines whether or not a vehicle can enter an intersection or a railroad crossing based on the length of an empty space specified on the road on which the vehicle enters and exits the intersection or railroad crossing. An apparatus is described.
  • Patent Document 1 uses images taken by cameras installed on a road on the side where a vehicle enters an intersection or a railroad crossing and a road on a side where the vehicle exits.
  • the length of the free space is specified. Therefore, this apparatus has a problem that it is impossible to determine whether or not a vehicle can enter unless a camera is installed near a road that leads to an intersection or a railroad crossing.
  • a camera is installed near a road that leads to an intersection or a railroad crossing.
  • the construction of an infrastructure in which a camera is installed on a road that leads to an intersection, a railroad crossing, etc. requires enormous costs and is not realistic.
  • the present invention solves the above-described problem, and a vehicle entry determination device and a vehicle entry determination that can determine whether or not an own vehicle is allowed to enter a target point based on information that can be acquired by an apparatus mounted on the own vehicle.
  • the purpose is to obtain a system.
  • the vehicle approach determination device includes an information acquisition unit, an analysis unit, a determination unit, and a notification unit.
  • the information acquisition unit acquires position information of the host vehicle, map information around the host vehicle, and sensor information of the surrounding state of the host vehicle detected by a sensor mounted on the host vehicle.
  • the analysis unit analyzes the positional relationship between the determination target point, which is a target point for determining whether or not the host vehicle is allowed to enter, and the situation of the determination target point from each piece of information acquired by the information acquisition unit.
  • the determination unit determines whether or not the host vehicle can enter the determination target point based on the analysis result of the analysis unit.
  • the notification processing unit outputs notification information indicating whether or not entry is possible according to the determination result of the determination unit.
  • FIG. 2A is a block diagram showing a hardware configuration for realizing the function of the vehicle approach determination device according to Embodiment 1.
  • FIG. 2B is a block diagram showing a hardware configuration for executing software for realizing the function of the vehicle approach determination device according to Embodiment 1.
  • FIG. 5A is a diagram showing an outline of determination when the own vehicle can enter the railroad crossing.
  • FIG. 5B is a diagram showing an outline of determination when the own vehicle cannot enter the railroad crossing because of the relationship with the preceding vehicle. It is a block diagram which shows the structure of the vehicle approach determination system which concerns on Embodiment 2 of this invention.
  • FIG. 1 is a block diagram showing a configuration of a vehicle approach determination device 1 according to Embodiment 1 of the present invention.
  • the vehicle entry determination device 1 is a device that is mounted on a vehicle such as an automobile and determines whether or not the host vehicle is allowed to enter a determination target point.
  • the determination target point is a target point for determining whether or not the host vehicle is allowed to enter.
  • Judgment points include points where the host vehicle may interfere with the traffic of other vehicles when the host vehicle enters depending on the traffic situation of the road leading to the point and the state of the structure on the road leading to the point. To be elected. Examples of the determination target point include a railroad crossing, an intersection, a road with a height limit, and a tunnel.
  • the vehicle approach determination device 1 is connected to the navigation device 2, the sensor group 3, and the output device 4.
  • the navigation device 2 is a device that is mounted on a host vehicle or carried by a passenger, and guides a route to a destination based on position information of the host vehicle and map information around the vehicle.
  • FIG. 1 shows a case where the vehicle entry determination device 1 and the navigation device 2 are separate devices, the vehicle entry determination device 1 may be realized as one function of the navigation device 2. .
  • the sensor group 3 is a generic term for sensors that are mounted on the host vehicle and detect the surrounding situation of the host vehicle, and includes a vehicle-mounted camera 30 and a vehicle-mounted sensor 31.
  • the in-vehicle camera 30 is a camera that is mounted on the host vehicle and captures the periphery of the host vehicle, and is realized by, for example, a front camera that captures the front of the host vehicle. A monocular camera may be used, but a stereo camera may be used. When the in-vehicle camera 30 is a stereo camera, it is possible to easily measure the distance between the object in the captured image and the in-vehicle camera 30 using the distance between both cameras, the focal length, and the parallax information.
  • the in-vehicle sensor 31 is a sensor that is mounted on the host vehicle and detects a forward vehicle, and is realized by, for example, a millimeter wave radar.
  • the output device 4 is a device that outputs information from the vehicle approach determination device 1 and includes a monitor 40 and a speaker 41.
  • the monitor 40 is a monitor that is installed in the passenger compartment of the host vehicle and displays information from the vehicle approach determination device 1.
  • the monitor 40 may be a display unit included in the navigation device 2 and overlaps the driver's front view. It may be a head-up display that displays information.
  • the speaker 41 is an in-vehicle speaker that is installed in the passenger compartment of the host vehicle and that outputs information from the vehicle approach determination device 1 by voice.
  • the vehicle entry determination device 1 includes an information acquisition unit 10, an analysis unit 11, a determination unit 12, and a notification processing unit 13.
  • the information acquisition unit 10 acquires position information of the host vehicle, map information around the host vehicle, and sensor information of the surrounding state of the host vehicle detected by the sensor group 3 mounted on the host vehicle. For example, the position information of the own vehicle and the map information around the own vehicle are acquired from the navigation device 2.
  • the sensor information on the surrounding situation of the host vehicle includes a captured image of the front of the host vehicle captured by the in-vehicle camera 30 or sensor information of the front vehicle detected by the in-vehicle sensor 31. In this way, the information acquisition unit 10 acquires only information handled by the navigation device 2 and the sensor group 3 mounted on the host vehicle.
  • the analysis unit 11 analyzes the positional relationship between the determination target point and the host vehicle and the situation of the determination target point from each piece of information acquired by the information acquisition unit 10. For example, the analysis unit 11 searches for the determination target point in the traveling direction of the host vehicle from the map information around the host vehicle based on the preset type of the point to be the determination target point. Among the determination target points, a determination target point within a predetermined range from the own vehicle position is specified. When the determination target point is within this range, the analysis unit 11 determines that it is necessary to determine whether or not the host vehicle is allowed to enter the determination target point, and distance information from the host vehicle position to the determination target point entry position. The positional relationship between the own vehicle and the determination target point, which is distance information from the own vehicle position to the exit position of the determination target point, is analyzed.
  • the analysis part 11 image-analyzes the picked-up image ahead of the own vehicle image
  • the determination target point is an intersection
  • the light color of the traffic light is specified, and the vehicle ahead on the road from the own vehicle to the front of the intersection or the vehicle ahead on the road connected to the exit side of the intersection is specified.
  • the situation of the determination target point is specified using the captured image of the in-vehicle camera 30, it is not necessary to add new hardware to specify the situation of the determination target point, and a low-cost system is realized. be able to.
  • the analysis part 11 may analyze the sensor information of the front vehicle detected by the vehicle-mounted sensor 31, and may specify the positional relationship of a front vehicle and the own vehicle. For example, the analysis unit 11 periodically inputs distance information between the preceding vehicle and the own vehicle as sensor information of the preceding vehicle, and calculates a relative traveling speed of the preceding vehicle with respect to the own vehicle from a time change of the distance information. Based on the travel speed and travel time, the analysis unit 11 estimates the movement position of the front vehicle relative to the host vehicle position. As described above, the analysis unit 11 determines the positional relationship between the determination target point and the own vehicle, the situation of the determination target point, and the positional relationship between the preceding vehicle and the own vehicle from information that can be acquired by the device mounted on the own vehicle. To analyze.
  • the determination unit 12 determines whether or not the host vehicle can enter the determination target point based on the analysis result of the analysis unit 11. For example, when an analysis result indicating that the vehicle is traveling toward a railroad crossing but the breaker bar or wire for the breaker is lowered is obtained, the determination unit 12 determines whether the vehicle is going to the railroad crossing. It is determined that the vehicle cannot enter. Similarly, the host vehicle is traveling toward the intersection, but if an analysis result indicating that the light color of the traffic light is red is obtained, the determination unit 12 cannot enter the intersection at the intersection. Is determined.
  • the determination unit 12 inputs an analysis result indicating the movement position of the forward vehicle with respect to the own vehicle position from the analysis unit 11, and the own vehicle reaches the exit position of the railroad crossing. Calculate the free space when moving. Then, the determination unit 12 determines that the own vehicle cannot enter the railroad crossing if the length of the own vehicle is longer than the empty space. If the empty space is longer, the determination unit 12 determines that the own vehicle enters the railroad crossing. Is determined to be possible. In addition, the length of the own vehicle is registered in the determination unit 12 in advance.
  • the notification processing unit 13 outputs notification information indicating whether or not entry is possible to the output device 4 according to the determination result of the determination unit 12. For example, when the own vehicle cannot enter the determination target point, the notification processing unit 13 causes the monitor 40 to display notification information indicating that the entry is not possible or to output sound from the speaker 41.
  • FIG. 2A shows a hardware configuration that realizes the function of the vehicle approach determination device 1
  • FIG. 2B shows a hardware configuration that executes software that realizes the function of the vehicle approach determination device 1.
  • FIG. 3 is a flowchart showing the operation of the vehicle entry determination device 1, and the vehicle entry determination device 1 functions by executing the steps shown in FIG.
  • Each function of the information acquisition unit 10, the analysis unit 11, the determination unit 12, and the notification processing unit 13 in the vehicle approach determination device 1 is realized by a processing circuit. That is, the vehicle entry determination device 1 obtains the determination target from step ST1 for acquiring the position information of the own vehicle, the map information around the own vehicle, and the sensor information of the surrounding situation of the own vehicle shown in FIG.
  • Step ST2 for analyzing the positional relationship between the point and the host vehicle and the situation of the determination target point
  • Step ST3 for determining whether the host vehicle can enter the determination target point based on the analysis result
  • a processing circuit for performing step ST4 for outputting the notification information to the output device 4 is provided.
  • the processing circuit may be dedicated hardware or a CPU (Central Processing Unit) that executes a program stored in the memory.
  • CPU Central Processing Unit
  • the processing circuit 100 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application), or the like.
  • a specific integrated circuit (FPGA), a field-programmable gate array (FPGA), or a combination thereof is applicable.
  • the functions of the information acquisition unit 10, the analysis unit 11, the determination unit 12, and the notification processing unit 13 may be realized by a processing circuit, or the functions of the respective units may be realized by a single processing circuit. Good.
  • the processing circuit is the CPU 101 as shown in FIG. 2B
  • the functions of the information acquisition unit 10, the analysis unit 11, the determination unit 12, and the notification processing unit 13 are realized by software, firmware, or a combination of software and firmware.
  • Software and firmware are described as programs and stored in the memory 102.
  • the CPU 101 reads out and executes the program stored in the memory 102, thereby realizing the functions of each unit. That is, the vehicle approach determination device 1 includes a memory 102 for storing a program that, when executed by the CPU 101, results from the processing from step ST1 to step ST4 shown in FIG.
  • these programs cause the computer to execute the procedures or methods of the information acquisition unit 10, the analysis unit 11, the determination unit 12, and the notification processing unit 13.
  • the memory is, for example, a RAM (Random Access Memory), ROM, flash memory, EPROM (Erasable Programmable ROM), EEPROM (Electrically Programmable EPROM), or other nonvolatile or volatile semiconductor memory, magnetic disk, flexible disk, Optical discs, compact discs, mini discs, DVDs (Digital Versatile Disk), and the like are applicable.
  • RAM Random Access Memory
  • ROM Read Only Memory
  • EPROM Erasable Programmable ROM
  • EEPROM Electrically Programmable EPROM
  • magnetic disk magnetic disk
  • flexible disk Optical discs
  • compact discs compact discs
  • mini discs mini discs
  • DVDs Digital Versatile Disk
  • a part may be implement
  • the information acquisition unit 10 realizes its function with a dedicated hardware processing circuit 100, and the analysis unit 11, the determination unit 12, and the notification processing unit 13 execute a program stored in the memory 102 by the CPU 101. To realize its function.
  • the processing circuit can realize the above-described functions by hardware, software, firmware, or a combination thereof.
  • FIG. 4 is a flowchart showing the operation of the vehicle approach determination device 1 according to the first embodiment, and shows a series of processes for determining whether or not the own vehicle can enter the determination target point and notifying the determination result.
  • the process of step ST1a shown in FIG. 4 is an example of the detailed process of step ST1 shown in FIG. Further, the processing from step ST2a, step ST3a, step ST4a, step ST5a-2, step ST6a-1, step ST7a to step ST9a is an example of detailed processing of step ST2 shown in FIG.
  • the processing of step ST5a-1, step ST6a-2 and step ST10a is an example of detailed processing of step ST3 shown in FIG.
  • the process of step ST11a is an example of the detailed process of step ST4 shown in FIG. Therefore, since the operation of each step shown in FIG. 3 becomes clear by explaining each step shown in FIG. 4, the following description will be made based on FIG. 4.
  • the information acquisition unit 10 acquires position information of the host vehicle, map information around the host vehicle, and sensor information of the surrounding state of the host vehicle detected by the sensor group 3 (step ST1a). For example, the information acquisition unit 10 periodically accesses the navigation device 2 and acquires position information of the host vehicle and map information around the host vehicle at the time of access. Moreover, the information acquisition part 10 acquires the picked-up image ahead of the own vehicle from the vehicle-mounted camera 30 while the vehicle approach determination apparatus 1 is starting or periodically. When a vehicle ahead is detected by the vehicle-mounted sensor 31, the information acquisition unit 10 acquires sensor information of the vehicle ahead from the vehicle-mounted sensor 31.
  • the analysis part 11 correct
  • the analysis unit 11 performs image analysis on a photographed image of a feature photographed by the in-vehicle camera 30, and specifies distance information D1 between the feature and the host vehicle.
  • the feature is a building
  • the building is identified from the captured image, and the distance from the in-vehicle camera 30 to the building is measured.
  • the distance of this measurement result is distance information D1.
  • the analysis unit 11 analyzes the position information of the building included in the position information of the host vehicle and the map information acquired by the information acquisition unit 10, and specifies the distance information D2 from the host vehicle to the building. .
  • the analysis part 11 analyzes the deviation
  • the analysis part 11 confirms whether there exists a determination target point in the advancing direction of the own vehicle (step ST3a). For example, based on the type of point that is a predetermined determination target point, search for a determination target point in the traveling direction of the host vehicle from map information around the host vehicle, and among the determination target points of the search result Then, a determination target point within a predetermined range from the own vehicle position is specified. When there is no determination target point in the traveling direction of the host vehicle (step ST3a; NO), the process returns to step ST1a and the above process is repeated.
  • the analysis unit 11 checks whether the determination target point is a railroad crossing, an intersection, or a height designation road (step ST4a). For example, the analysis unit 11 determines whether a level crossing, an intersection, and a height-designated road are based on a preset type of a point that is a determination target point. When the determination target point is a crossing or an intersection (step ST4a; crossing or intersection), the analysis unit 11 outputs an analysis result indicating the state of the determination target point to the determination unit 12.
  • the determination unit 12 determines whether or not the determination target point is in a situation where the host vehicle can enter (step ST5a-1). For example, when the determination target point is a railroad crossing, the determination unit 12 is in a situation in which the vehicle cannot enter the vehicle if an analysis result indicating that the barrier bar of the breaker or the wire for interruption is lowered is obtained. It is determined that On the contrary, if an analysis result indicating that there is no preceding vehicle and the breaker bar or wire for the breaker is up is obtained, it is determined that this level crossing is a situation where the host vehicle can enter.
  • the determination unit 12 obtains an analysis result indicating that the light color of the traffic light at the intersection is red. Judge that there is. Conversely, when an analysis result indicating that there is no preceding vehicle and the traffic light is blue is obtained, it is determined that this intersection is a situation where the host vehicle can enter.
  • step ST5a-1; YES If it is determined by the determination unit 12 that the host vehicle can enter the determination target point (step ST5a-1; YES), the analysis unit 11 determines whether there is a vehicle ahead based on the sensor information. Whether or not is confirmed (step ST6a-1). When there is no preceding vehicle (step ST6a-1; NO), the analysis unit 11 notifies the determination unit 12 that there is no preceding vehicle. Upon receiving this notification, the determination unit 12 determines that the host vehicle can pass through the determination target point as it is, and returns to the process of step ST1a. As a result, the host vehicle enters and passes the crossing or intersection that is the determination target point.
  • step ST6a-1 if there is a vehicle ahead (step ST6a-1; YES), even if the railroad crossing or the intersection can enter, the vehicle may not be able to enter due to the relationship with the vehicle ahead. Therefore, the analysis unit 11 analyzes the positional relationship between the preceding vehicle and the host vehicle.
  • the determination target point is a railroad crossing will be described as an example with reference to FIGS. 5A and 5B.
  • the analysis unit 11 analyzes the position information of the own vehicle A, the map information around the own vehicle A, and the sensor information, and as shown in FIGS. 5A and 5B, the exit position P2 of the level crossing from the position P1 of the own vehicle A.
  • Distance L1 is specified (step ST7a).
  • the analysis unit 11 calculates the distance from the own vehicle A to the crossing using the position information of the crossing on the map information and the position P1 of the own vehicle A, and uses the distance and the crossing width of the own vehicle A.
  • the distance L1 from the position P1 to the exit position P2 of the level crossing is calculated.
  • the crossing width may be specified by performing image analysis on a captured image captured by the in-vehicle camera 30.
  • the analysis part 11 estimates the distance L2 from the position P1 of the own vehicle A to the movement position of the front vehicle B (step ST8a). For example, the analysis unit 11 periodically inputs distance information between the preceding vehicle B and the host vehicle A as sensor information of the preceding vehicle B, and the relative position of the preceding vehicle B with respect to the host vehicle A is determined based on time variation of the distance information. A traveling speed V1 is calculated. Next, the analysis unit 11 calculates an estimated travel time T from the position P1 to the level crossing exit position P2 based on the travel speed V2 of the host vehicle A.
  • the traveling speed V2 of the host vehicle A may be acquired from a vehicle control device mounted on the host vehicle A, but is estimated based on changes in specific features in captured images sequentially captured by the in-vehicle camera 30. May be. Thereafter, the analysis unit 11 calculates the travel distance of the front vehicle B when the front vehicle B travels for the estimated travel time T at the travel speed V1. This moving distance is the distance L2.
  • the analysis unit 11 calculates an empty space length L3 on the exit side of the determination target point (crossing) (step ST9a).
  • the free space length L3 is a value obtained by subtracting the distance L1 from the distance L2, and is notified from the analysis unit 11 to the determination unit 12.
  • the determination unit 12 determines whether or not the length of the host vehicle A is less than the free space length L3 (step ST10a). If the length of the host vehicle A is less than the free space length L3 (step ST10a; YES), the process is terminated. In this case, as shown in FIG. 5A, the own vehicle A at the exit position P2 and the forward vehicle B after movement do not overlap, and the own vehicle A can pass the railroad crossing. At this time, the determination unit 12 does not instruct the notification processing unit 13 to output notification information, and the determination result is not notified to the driver. Therefore, the host vehicle passes through the railroad crossing or the intersection as it is.
  • the analysis unit 11 analyzes the height upper limit of the height designated road (step ST5a-2). For example, the analysis unit 11 specifies the height upper limit from the height restriction information of the height designated road included in the map information. Further, the upper limit of the height may be specified based on the character information recognized from the photographed image of the sign plate, or the upper limit of the height may be analyzed from the photographed images obtained by photographing the road and the ceiling of the tunnel.
  • the determination unit 12 determines whether or not the height of the host vehicle is less than the upper limit of the height analyzed by the analysis unit 11 (step ST6a-2). If the height of the host vehicle is less than the upper limit of height (step ST6a-2; YES), the process ends. In this case, the determination unit 12 does not instruct the notification processing unit 13 to output the notification information, and the determination result is not notified to the driver. Therefore, the host vehicle enters and passes through the height designated road as it is.
  • the determination unit 12 determines that the vehicle cannot enter the determination target point. For example, if the length of the host vehicle A is equal to or greater than the free space length L3, as shown in FIG. 5B, the host vehicle A at the exit position P2 and the forward vehicle B after moving overlap, Cannot pass through.
  • the determination unit 12 instructs the notification processing unit 13 to output notification information when it is determined that the vehicle cannot enter the determination target point.
  • the notification processing unit 13 outputs notification information indicating that the host vehicle cannot be entered to the output device 4.
  • the notification processing unit 13 displays the notification information on the monitor 40 or outputs the sound from the speaker 41.
  • Examples of the notification information displayed on the monitor 40 include text information indicating whether entry is possible, graphics, marks, and combinations thereof.
  • Examples of the notification information to be output by voice include, for example, “You cannot enter the next level crossing. Please stop at the stop line”.
  • the notification processing unit 13 outputs notification information indicating the determination result to the output device 4 only when the determination unit 12 determines that the own vehicle cannot enter the determination target point.
  • the driver visually recognizes the front and determines whether or not the host vehicle can travel, but at the determination target point, if the driver makes a mistake and the host vehicle enters, it may hinder traffic of other vehicles, Your vehicle may be involved in an accident. Therefore, the vehicle approach determination device 1 according to the present invention determines whether or not the own vehicle can enter the determination target point, and notifies the driver when the own vehicle cannot enter the determination target point. As a result, when the driver's judgment is erroneous and the host vehicle is about to enter the determination target point, it is possible to accurately notify that the host vehicle cannot enter.
  • the notification processing unit 13 also outputs notification information indicating the determination result and the status of the determination target point to the output device 4 even when the determination unit 12 determines that the host vehicle can enter the determination target point. May be.
  • notification is made that the own vehicle can enter and information on the difference between the height of the own vehicle and the upper limit of the height.
  • the driver can confirm the situation of the determination target point that cannot be obtained only by viewing the front like the difference, and can pass the host vehicle with peace of mind.
  • the determination unit 12 determines that the crossing bar or the blocking wire in the traveling direction of the own vehicle is about to go down and that the blocking bar or the blocking wire is lowered. It is determined that the vehicle cannot enter. On the other hand, if the blocking bar or the blocking wire is going to rise, the determination unit 12 determines that the blocking bar or the blocking wire is raised before the own vehicle reaches the level crossing and determines that the own vehicle to the level crossing It is determined that entry is possible. In this case, for example, the analysis unit 11 is changing in a direction in which the blocking bar or the blocking wire is lowered from a change in position of the blocking bar or the blocking wire that is sequentially analyzed by the in-vehicle camera 30 and is analyzed. Analyze whether it is changing in the upward direction.
  • the notification processing unit 13 may change the mode of the notification information depending on whether the blocking bar or the blocking wire is going up or down. For example, when the blocking bar or the blocking wire is about to go down, the notification processing unit 13 emphasizes that the host vehicle is not allowed to enter and outputs it to the output device 4. When displaying on the monitor 40, text information, a figure, a mark, and a combination thereof indicating that the own vehicle cannot enter is highlighted. In addition, the volume of the notification information indicating that the vehicle cannot enter is increased and output.
  • the vehicle approach determination device 1 has the configuration shown in FIG. 2, and includes position information of the own vehicle, map information around the own vehicle, and sensor information about the situation around the own vehicle.
  • the positional relationship between the determination target point and the host vehicle and the situation of the determination target point are analyzed, and whether or not the host vehicle can enter the determination target point is determined based on the analysis result.
  • the analysis unit 11 corrects the position information of the host vehicle using the sensor information. By comprising in this way, the positional accuracy of the own vehicle can be improved and, as a result, the reliability of the determination result of whether to enter can be improved.
  • the analysis unit 11 analyzes the situation of the determination target point from the captured image captured by the in-vehicle camera 30. With this configuration, it is not necessary to add new hardware to specify the situation of the determination target point, and a low-cost system can be realized.
  • the analysis unit 11 calculates the forward vehicle from the positional information of the own vehicle, the map information around the own vehicle, and the sensor information of the forward vehicle detected by the in-vehicle sensor 31.
  • the positional relationship between the vehicle and the host vehicle is analyzed.
  • the determination unit 12 determines whether or not the host vehicle can enter the determination target point based on the positional relationship between the determination target point and the host vehicle, the situation of the determination target point, and the positional relationship between the preceding vehicle and the host vehicle. With this configuration, it is possible to determine whether or not the host vehicle can enter the determination target point using information that can be acquired by the navigation device 2 and the sensor group 3 mounted on the host vehicle.
  • the notification processing unit 13 notifies the determination result when the determination unit 12 determines that the vehicle cannot enter the determination target point.
  • Information is output to the output device 4.
  • FIG. FIG. 6 is a block diagram showing a configuration of a vehicle approach determination system 5 according to Embodiment 2 of the present invention.
  • the vehicle entry determination system 5 includes a vehicle entry determination device 1 mounted on the vehicle A and a server device 6 provided outside the vehicle A.
  • the vehicle A is a vehicle on which the navigation device 2, the sensor group 3, and the output device 4 described in FIG.
  • the server device 6 is a device that can communicate with the vehicle entry determination device 1 or the navigation device 2 via a communication network such as the Internet, and includes a storage unit 60, a search unit 61, and a communication unit 62.
  • the storage unit 60 is a storage unit that stores a database of map information.
  • the search unit 61 searches the storage unit 60 for map information corresponding to the position information of the vehicle A.
  • the communication unit 62 receives the position information of the vehicle A via the communication network, and transmits the map information searched by the search unit 61 to the vehicle A.
  • the navigation device 2 mounted on the vehicle A transmits a search request including the position information of the vehicle A to the server device 6.
  • the search unit 61 of the server device 6 searches the storage unit 60 based on the position information included in the search request, and acquires surrounding map information including this position information.
  • the map information searched in this way is sent back to the navigation device 2 as the request source by the communication unit 62.
  • the information acquisition unit 10 of the vehicle approach determination device 1 acquires map information around the vehicle A from the navigation device 2. Thereby, even if the navigation apparatus 2 does not include map information, the information acquisition unit 10 can acquire map information around the vehicle A.
  • the information acquisition unit 10 of the vehicle approach determination apparatus 1 transmits a search request including the position information of the vehicle A to the server apparatus 6.
  • the map information may be acquired directly from the server device 6.
  • the vehicle entry determination system 5 includes the vehicle entry determination device 1 and the server device 6.
  • the server device 6 includes a storage unit 60, a search unit 61, and a communication unit 62.
  • the storage unit 60 stores map information.
  • the search unit 61 searches the storage unit 60 for map information corresponding to the position information of the vehicle A on which the vehicle approach determination device 1 is mounted.
  • the communication unit 62 receives the position information of the vehicle A, and transmits the map information searched by the search unit 61 to the vehicle A. Also with this configuration, it is possible to determine whether or not the host vehicle can enter the determination target point based on information that can be acquired by the navigation device 2 and the sensor group 3 mounted on the vehicle A. That is, since information from a roadside device outside the vehicle is not used, infrastructure construction is unnecessary, and the vehicle can be configured at low cost by using an existing device.
  • any combination of each embodiment, any component of each embodiment can be modified, or any component can be omitted in each embodiment. .
  • the vehicle approach determination device can determine whether or not a vehicle can enter a determination target point based on information that can be acquired by a device mounted on the vehicle. It can be used as one of the functions.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

自車両の位置情報、自車両の周辺の地図情報および自車両に搭載されたセンサ群(3)によって検出された自車両の周辺状況のセンサ情報を取得し、取得された各情報から自車両の進入可否を判定する対象の地点である判定対象点と自車両との位置関係および判定対象点の状況を解析する。解析結果に基づいて判定対象点への自車両の進入可否を判定して、判定結果に応じて進入可否の通知情報を出力装置(4)に出力する。

Description

車両進入判定装置および車両進入判定システム
 この発明は、踏切、交差点、高さ制限のある道路、トンネルなどへの車両の進入可否を判定する車両進入判定装置および車両進入判定システムに関する。
 従来から、交差点、踏切などへの車両の進入可否を判定して判定結果を運転者に通知する技術が提案されている。例えば、特許文献1には、交差点または踏切へ車両が進入する側の道路と退出する側の道路において特定された空きスペースの長さに基づいて、交差点または踏切への車両の進入可否を判定する装置が記載されている。
特開2009-59039号公報
 しかしながら、特許文献1に記載される装置は、交差点または踏切へ車両が進入する側の道路と退出する側の道路に設置されたカメラの撮影画像を利用して、進入側と退出側の道路における空きスペースの長さを特定している。従って、この装置では、交差点または踏切に繋がる道路付近にカメラが設置されていなければ、車両の進入可否を判定できないという課題があった。
 なお、交差点、踏切などに繋がる道路にカメラを設置するというインフラ構築は莫大なコストが必要であり現実的ではない。
 また、カメラの撮影画像だけでは、車両の位置および空きスペースの長さを正確に特定することは困難である。
 この発明は、上記課題を解決するもので、自車両に搭載された装置によって取得可能な情報に基づいて対象地点への自車両の進入可否を判定することができる車両進入判定装置および車両進入判定システムを得ることを目的とする。
 この発明に係る車両進入判定装置は、情報取得部、解析部、判定部および通知部を備える。情報取得部は、自車両の位置情報、自車両の周辺の地図情報および自車両に搭載されたセンサによって検出された自車両の周辺状況のセンサ情報を取得する。解析部は、情報取得部によって取得された各情報から、自車両の進入可否を判定する対象の地点である判定対象点と自車両との位置関係および判定対象点の状況を解析する。判定部は、解析部の解析結果に基づいて判定対象点への自車両の進入可否を判定する。通知処理部は、判定部の判定結果に応じて進入可否の通知情報を出力装置に出力する。
 この発明によれば、自車両の位置情報、自車両の周辺の地図情報、自車両の周辺状況のセンサ情報から、自車両の進入可否を判定する対象の地点である判定対象点と自車両との位置関係および判定対象点の状況を解析して、この解析結果に基づいて判定対象点への自車両の進入可否を判定している。これにより、自車両に搭載された装置により取得可能な情報に基づいて、判定対象点への車両の進入可否を判定することができる。すなわち、車両外の路側装置からの情報を使用しないので、インフラ構築が不要であり、車両に既存の装置を利用して安価に構成可能である。
この発明の実施の形態1に係る車両進入判定装置の構成を示すブロック図である。 図2Aは実施の形態1に係る車両進入判定装置の機能を実現するハードウェア構成を示すブロック図である。図2Bは実施の形態1に係る車両進入判定装置の機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。 実施の形態1に係る車両進入判定装置の動作の概要を示すフローチャートである。 実施の形態1に係る車両進入判定装置の動作を示すフローチャートである。 図5Aは踏切に自車両が進入可能である場合の判定概要を示す図である。図5Bは自車両が前方車両との関係で踏切に進入できない場合の判定概要を示す図である。 この発明の実施の形態2に係る車両進入判定システムの構成を示すブロック図である。
 以下、この発明をより詳細に説明するため、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は、この発明の実施の形態1に係る車両進入判定装置1の構成を示すブロック図である。車両進入判定装置1は、自動車などの車両に搭載されて、判定対象点への自車両の進入可否を判定する装置である。ここで、判定対象点とは、自車両の進入可否を判定する対象の地点である。判定対象点には、その地点に繋がる道路の交通状況およびその地点に繋がる道路上の構造物の状態によって自車両が進入すると、自車両が他車両の交通の妨げになる可能性がある地点が選ばれる。判定対象点としては、例えば、踏切、交差点、高さ制限のある道路、トンネルが挙げられる。
 また、車両進入判定装置1は、ナビゲーション装置2、センサ群3、出力装置4と接続している。ナビゲーション装置2は、自車両に搭載または乗員に持ち込まれて使用される装置であり、自車両の位置情報およびその周辺の地図情報に基づいて目的地までの経路を案内する。なお、図1では、車両進入判定装置1とナビゲーション装置2とが別々の装置である場合を示しているが、車両進入判定装置1は、ナビゲーション装置2が有する1つの機能として実現されてもよい。
 センサ群3は、自車両に搭載されて自車両の周辺状況を検出するセンサを総称したものであり、車載カメラ30および車載センサ31から構成される。
 車載カメラ30は、自車両に搭載されて自車両の周辺を撮影するカメラであり、例えば自車両の前方を撮影する前方カメラにより実現される。単眼カメラでもよいが、ステレオカメラであってもよい。車載カメラ30がステレオカメラである場合、両方のカメラ間の距離、焦点距離、視差情報を用いて撮影画像中の物体と車載カメラ30との距離を容易に計測することが可能である。
 車載センサ31は、自車両に搭載されて前方車両を検出するセンサであって、例えば、ミリ波レーダにより実現される。
 出力装置4は、車両進入判定装置1からの情報を出力する装置であり、モニタ40およびスピーカ41から構成される。
 モニタ40は、自車両の車室内に設置されて車両進入判定装置1からの情報を表示するモニタであり、例えば、ナビゲーション装置2が備える表示部であってもよく、運転者の前方視界に重ねて情報を表示するヘッドアップディスプレイであってもよい。
 スピーカ41は、自車両の車室内に設置されて、車両進入判定装置1からの情報を音声出力する車載スピーカである。
 また、車両進入判定装置1は、情報取得部10、解析部11、判定部12および通知処理部13を備えて構成される。
 情報取得部10は、自車両の位置情報、自車両の周辺の地図情報および自車両に搭載されたセンサ群3によって検出された自車両の周辺状況のセンサ情報を取得する。
 例えば、自車両の位置情報および自車両の周辺の地図情報をナビゲーション装置2から取得する。また、自車両の周辺状況のセンサ情報には、車載カメラ30により撮影された自車両前方の撮影画像あるいは車載センサ31により検出された前方車両のセンサ情報がある。このように、情報取得部10は、自車両に搭載されたナビゲーション装置2およびセンサ群3が扱う情報のみを取得する。
 解析部11は、情報取得部10により取得された各情報から、判定対象点と自車両との位置関係および判定対象点の状況を解析する。
 例えば、解析部11は、予め設定された判定対象点となる地点の種別に基づいて、自車両の周辺の地図情報から、自車両の進行方向にある判定対象点を探索し、この探索結果の判定対象点のうち、自車両位置から予め定められた範囲内にある判定対象点を特定する。
 この範囲内に判定対象点がある場合、解析部11は、判定対象点への自車両の進入可否を判定する必要があると判断し、自車両位置から判定対象点の進入位置までの距離情報、自車両位置から判定対象点の退出位置までの距離情報という自車両と判定対象点との位置関係を解析する。
 また、解析部11は、車載カメラ30によって撮影された自車両前方の撮影画像を画像解析して判定対象点の状況を特定する。
 判定対象点が踏切である場合、判定対象点の状況として、遮断機の遮断棒または遮断用ワイヤーが上がっているか否かを特定し、さらに自車両から踏切の手前までの道路上の前方車両または踏切の退出側に繋がる道路上の前方車両を特定する。
 判定対象点が交差点である場合、信号機の灯色を特定し、さらに自車両から交差点の手前までの道路上の前方車両または交差点の退出側に繋がる道路上の前方車両を特定する。
 このように車載カメラ30の撮影画像を用いて判定対象点の状況を特定するので、判定対象点の状況を特定するために新たなハードウェアを追加する必要がなく、低コストのシステムを実現することができる。
 なお、自車両に搭載されたマイクによって集音された車外音から遮断機の状態を特定してもよい。すなわち、解析部11は、遮断機の警報が集音された場合、遮断機の遮断棒または遮断用ワイヤーが下がり始めていると判断し、警報が集音されなければ、遮断機の遮断棒または遮断用ワイヤーが上がった状態であると判断する。
 さらに、解析部11は、車載センサ31により検出された前方車両のセンサ情報を解析して前方車両と自車両との位置関係を特定してもよい。
 例えば、解析部11は、前方車両のセンサ情報として前方車両と自車両との距離情報を周期的に入力し、距離情報の時間変化から自車両に対する前方車両の相対的な走行速度を算出する。この走行速度と走行時間に基づいて、解析部11は、自車両位置に対する前方車両の移動位置を推定する。
 このように、解析部11は、自車両に搭載された装置により取得可能な情報から、判定対象点と自車両との位置関係、判定対象点の状況、前方車両と自車両との位置関係を解析する。
 判定部12は、解析部11の解析結果に基づいて、判定対象点への自車両の進入可否を判定する。例えば、自車両が踏切に向かって走行しているが、遮断機の遮断棒または遮断用ワイヤーが下がっている状況であることを示す解析結果が得られると、判定部12は、踏切への自車両の進入は不可であると判定する。同様に、自車両が交差点に向かって走行しているが、信号機の灯色が赤であることを示す解析結果が得られると、判定部12は、交差点への自車両の進入は不可であると判定する。
 また、判定部12は、踏切に向かう道路上に前方車両が検出された場合、自車両位置に対する前方車両の移動位置を示す解析結果を解析部11から入力し、自車両が踏切の退出位置まで移動したときの空きスペースを算出する。
 そして、判定部12は、空きスペースよりも自車両の長さが長ければ、踏切への自車両の進入は不可であると判定し、空きスペースの方が長ければ、踏切への自車両の進入が可能と判定する。なお、自車両の長さは、判定部12に予め登録しておく。
 通知処理部13は、判定部12の判定結果に応じて進入可否の通知情報を出力装置4に出力する。例えば、判定対象点への自車両の進入が不可である場合、通知処理部13は、進入が不可であることを示す通知情報をモニタ40に表示させるかあるいはスピーカ41から音声出力させる。
 図2Aは、車両進入判定装置1の機能を実現するハードウェア構成、図2Bは、車両進入判定装置1の機能を実現するソフトウェアを実行するハードウェア構成を示している。
 また、図3は、車両進入判定装置1の動作を示すフローチャートであり、車両進入判定装置1は、図3に示されたステップを実行することで機能する。
 車両進入判定装置1における情報取得部10、解析部11、判定部12および通知処理部13の各機能は、処理回路により実現される。
 すなわち、車両進入判定装置1は、図3に示す自車両の位置情報、自車両の周辺の地図情報および自車両の周辺状況のセンサ情報を取得するステップST1、取得された各情報から、判定対象点と自車両との位置関係および判定対象点の状況を解析するステップST2、解析結果に基づいて、判定対象点への自車両の進入可否を判定するステップST3、判定結果に応じて進入可否の通知情報を出力装置4に出力するステップST4を行うための処理回路を備えている。
 処理回路は、専用のハードウェアであっても、メモリに格納されるプログラムを実行するCPU(Central Processing Unit)であってもよい。
 図2Aに示すように上記処理回路が専用のハードウェアの処理回路100である場合、処理回路100は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、または、これらを組み合わせたものが該当する。
 また、情報取得部10、解析部11、判定部12および通知処理部13の各部の機能をそれぞれ処理回路で実現してもよいし、各部の機能をまとめて1つの処理回路で実現してもよい。
 図2Bに示すように上記処理回路がCPU101である場合、情報取得部10、解析部11、判定部12および通知処理部13の機能は、ソフトウェア、ファームウェアまたはソフトウェアとファームウェアとの組み合わせにより実現される。
 ソフトウェアとファームウェアはプログラムとして記述され、メモリ102に格納される。CPU101は、メモリ102に格納されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、車両進入判定装置1は、CPU101によって実行されるときに、図3に示したステップST1からステップST4までの処理が結果的に実行されるプログラムを格納するためのメモリ102を備える。また、これらのプログラムは、情報取得部10、解析部11、判定部12および通知処理部13の手順または方法をコンピュータに実行させるものである。
 ここで、メモリとは、例えば、RAM(Random Access Memory)、ROM、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)などの不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disk)などが該当する。
 なお、情報取得部10、解析部11、判定部12、通知処理部13の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現してもよい。例えば、情報取得部10は、専用のハードウェアの処理回路100でその機能を実現し、解析部11、判定部12および通知処理部13は、CPU101が、メモリ102に格納されたプログラム実行することによりその機能を実現する。
 このように、上記処理回路は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって前述の機能を実現することができる。
 次に動作について説明する。
 図4は、実施の形態1に係る車両進入判定装置1の動作を示すフローチャートであり、判定対象点への自車両の進入可否を判定し、この判定結果を通知する一連の処理を示している。図4に示すステップST1aの処理は、図3に示したステップST1の詳細な処理の一例である。またステップST2a、ステップST3a、ステップST4a、ステップST5a-2、ステップST6a-1、ステップST7aからステップST9aまでの処理は、図3に示したステップST2の詳細な処理の一例である。ステップST5a-1、ステップST6a-2およびステップST10aの処理は、図3に示したステップST3の詳細な処理の一例である。ステップST11aの処理は、図3に示したステップST4の詳細な処理の一例である。
 従って、図3に示した各ステップの動作は、図4に示す各ステップを説明することによって明らかになるため、以下、図4に基づいて説明を行う。
 まず、情報取得部10は、自車両の位置情報、自車両の周辺の地図情報、センサ群3によって検出された自車両の周辺状況のセンサ情報を取得する(ステップST1a)。
 例えば、情報取得部10は、ナビゲーション装置2に周期的にアクセスして、アクセスした時点での自車両の位置情報および自車両の周辺の地図情報を取得する。
 また、情報取得部10は、車両進入判定装置1が起動している間中または周期的に車載カメラ30から自車両前方の撮影画像を取得する。
 車載センサ31によって前方車両が検出されると、情報取得部10は、この前方車両のセンサ情報を車載センサ31から取得する。
 次に、解析部11は、情報取得部10によって取得されたセンサ情報を使用して自車両の位置情報を補正する(ステップST2a)。
 例えば、解析部11は、車載カメラ30によって撮影された地物の撮影画像を画像解析し、この地物と自車両との間の距離情報D1を特定する。地物が建物である場合、撮影画像から建物を特定し、車載カメラ30から建物までの距離を計測する。この計測結果の距離が距離情報D1となる。続いて、解析部11は、情報取得部10により取得された自車両の位置情報と地図情報に含まれる上記建物の位置情報を解析して、自車両から上記建物までの距離情報D2を特定する。そして、解析部11は、距離情報D1に対する距離情報D2のずれ量を解析して、このずれ量に基づいて自車両の位置情報を補正する。
 このように、センサ情報を使用して、ナビゲーション装置2から取得した自車両の位置情報を補正することで、自車両の位置精度を高めることができ、ひいては進入可否の判定結果の信頼性を高めることができる。
 次に、解析部11は自車両の進行方向に判定対象点があるか否かを確認する(ステップST3a)。例えば、予め設定された判定対象点となる地点の種別に基づいて、自車両の周辺の地図情報から、自車両の進行方向にある判定対象点を探索し、この探索結果の判定対象点のうち、自車両位置から予め定められた範囲内にある判定対象点を特定する。
 自車両の進行方向に判定対象点がない場合(ステップST3a;NO)、ステップST1aに戻り、上記処理を繰り返す。
 自車両の進行方向に判定対象点がある場合(ステップST3a;YES)、解析部11は、判定対象点が踏切、交差点および高さ指定道路のいずれであるかを確認する(ステップST4a)。例えば、解析部11は、予め設定された判定対象点となる地点の種別に基づいて、踏切、交差点および高さ指定道路の別を判別する。
 判定対象点が踏切または交差点である場合(ステップST4a;踏切または交差点)、解析部11は、判定対象点の状況を示す解析結果を判定部12に出力する。
 判定部12は、この判定対象点の状況を示す解析結果に基づいて、判定対象点は自車両が進入可能な状況であるか否かを判定する(ステップST5a-1)。
 例えば、判定対象点が踏切である場合、判定部12は、遮断機の遮断棒または遮断用ワイヤーが下がっていることを示す解析結果が得られると、この踏切は自車両の進入が不可な状況であると判定する。反対に、前方車両がなく、遮断機の遮断棒または遮断用ワイヤーが上がっていることを示す解析結果が得られると、この踏切は、自車両の進入が可能な状況であると判定する。
 同様に、判定対象点が交差点である場合、判定部12は、この交差点の信号機の灯色が赤であることを示す解析結果が得られると、この交差点は自車両の進入が不可な状況であると判定する。反対に、前方車両がなく、信号機の灯色が青であることを示す解析結果が得られると、この交差点は自車両の進入が可能な状況であると判定する。
 判定部12によって判定対象点への自車両の進入が可能な状況であると判定されると(ステップST5a-1;YES)、解析部11は、センサ情報に基づいて、前方車両が存在するか否かを確認する(ステップST6a-1)。
 前方車両が存在しない場合(ステップST6a-1;NO)、解析部11は、前方車両がないことを判定部12に通知する。
 判定部12は、この通知を受けると、自車両がそのまま判定対象点を通過可能であると判断し、ステップST1aの処理に戻る。これにより、自車両は、判定対象点である踏切または交差点に進入して通過することになる。
 一方、前方車両が存在する場合(ステップST6a-1;YES)、踏切または交差点が進入可能な状況であっても、前方車両との関係で自車両が進入できない可能性がある。そこで、解析部11は、前方車両と自車両との位置関係を解析する。以下、図5Aおよび図5Bを用いて判定対象点が踏切である場合を例に挙げて説明する。
 解析部11は、自車両Aの位置情報、自車両Aの周辺の地図情報、センサ情報を解析して、図5Aおよび図5Bに示すように、自車両Aの位置P1から踏切の退出位置P2までの距離L1を特定する(ステップST7a)。
 例えば、解析部11は、地図情報上の踏切の位置情報と自車両Aの位置P1とを用いて自車両Aから踏切までの距離を算出し、この距離と踏切幅とを用いて自車両Aの位置P1から踏切の退出位置P2までの距離L1を算出する。
 なお、踏切幅は、車載カメラ30によって撮影された撮影画像を画像解析することにより特定してもよい。
 次に、解析部11は、自車両Aの位置P1から前方車両Bの移動位置までの距離L2を推定する(ステップST8a)。
 例えば、解析部11は、前方車両Bのセンサ情報として前方車両Bと自車両Aとの距離情報を周期的に入力して、距離情報の時間変化から自車両Aに対する前方車両Bの相対的な走行速度V1を算出する。次に、解析部11は、自車両Aの走行速度V2に基づいて、自車両Aが位置P1から踏切の退出位置P2に至るまでの予想走行時間Tを算出する。
 なお、自車両Aの走行速度V2は、自車両Aに搭載された車両制御装置から取得してもよいが、車載カメラ30によって順次撮影された撮影画像中の特定地物の変化に基づいて概算してもよい。
 この後、解析部11は、走行速度V1で前方車両Bが予想走行時間Tだけ走行した場合における、前方車両Bの移動距離を算出する。この移動距離が距離L2となる。
 続いて、解析部11は、判定対象点(踏切)の退出側の空きスペース長さL3を算出する(ステップST9a)。空きスペース長さL3は、距離L2から距離L1を引き算した値であり、解析部11から判定部12に通知される。
 判定部12は、自車両Aの長さが空きスペース長さL3未満であるか否かを判定する(ステップST10a)。自車両Aの長さが空きスペース長さL3未満である場合(ステップST10a;YES)、処理を終了する。
 この場合、図5Aに示すように、退出位置P2の自車両Aと移動後の前方車両Bとが重ならず、自車両Aが踏切を通過可能である。このとき、判定部12は、通知処理部13に対して通知情報の出力を指示せず、判定結果が運転者へ通知されない。
 従って、自車両は、そのまま踏切または交差点に進入して通過することになる。
 一方、判定対象点が高さ指定道路であった場合(ステップST4a;高さ指定道路)、解析部11は、高さ指定道路の高さ上限を解析する(ステップST5a-2)。
 例えば、解析部11は、地図情報に含まれる高さ指定道路の高さ制限情報から高さ上限を特定する。また、標識プレートの撮影画像から認識した文字情報に基づいて高さ上限を特定してもよく、道路とトンネルの天井とが撮影された撮影画像から高さ上限を解析してもよい。
 判定部12は、自車両の高さが、解析部11によって解析された高さ上限未満であるか否かを判定する(ステップST6a-2)。自車両の高さが上記高さ上限未満である場合(ステップST6a-2;YES)、処理を終了する。
 この場合、判定部12は、通知処理部13に対して通知情報の出力を指示せず、判定結果が運転者へ通知されない。従って、自車両はそのまま高さ指定道路に進入して通過することになる。
 判定対象点が自車両の進入が不可な状況である場合(ステップST5a-1;NO)、あるいは、自車両の長さが空きスペース長さL3以上である場合(ステップST10a;NO)、判定部12は、判定対象点への自車両の進入が不可であると判定する。
 例えば、自車両Aの長さが空きスペース長さL3以上であると、図5Bに示すように、退出位置P2の自車両Aと移動後の前方車両Bとが重なって、自車両Aが踏切を通過不可である。
 判定部12は、判定対象点への自車両の進入が不可であると判定した場合、通知処理部13に対して通知情報の出力を指示する。これにより、通知処理部13は、自車両の進入不可の通知情報を出力装置4に出力する。例えば、通知処理部13は、通知情報をモニタ40に表示させるかまたはスピーカ41から音声出力させる。モニタ40に表示する通知情報としては、例えば、進入可否を示すテキスト情報、図形、マークおよびこれらの組み合わせが挙げられる。音声出力する通知情報としては、例えば、“この先の踏切への進入はできません。停止線で停車して下さい。”といった内容が挙げられる。
 このように、通知処理部13は、判定部12によって判定対象点への自車両の進入不可と判定された場合にのみ、判定結果を示す通知情報を出力装置4に出力している。
 通常、運転者は前方を視認して自車両の走行可否を判断しているが、判定対象点では、運転者が判断を誤って自車両が進入すると、他車両の交通の妨げとなるか、自車両が事故に巻き込まれる可能性がある。
 そこで、この発明に係る車両進入判定装置1は、判定対象点への自車両の進入可否を判定し、判定対象点への自車両の進入が不可である場合に運転者へ通知する。これにより、運転者の判断が誤って判定対象点に自車両が進入しようとしている場合に、自車両の進入が不可な状況であることを的確に通知することができる。
 なお、通知処理部13は、判定部12によって判定対象点への自車両の進入可能と判定された場合にも、この判定結果と判定対象点の状況を示す通知情報を、出力装置4に出力してもよい。例えば、判定対象点が高さ指定道路である場合に、自車両が進入可能であることおよび自車両の高さと高さ上限との差分の情報を通知する。これにより、運転者は、当該差分のように前方を視認するだけでは得られない判定対象点の状況を確認でき、安心して自車両を通過させることができる。
 また、判定部12は、自車両の進行方向にある踏切の遮断機の遮断棒または遮断用ワイヤーが下がろうとしている状況である場合、遮断棒または遮断用ワイヤーが下がったものとして踏切への自車両の進入が不可であると判定する。
 一方、判定部12は、遮断棒または遮断用ワイヤーが上がろうとしていれば、自車両が踏切に到達するまでに遮断棒または遮断用ワイヤーが上がっていると判断して踏切への自車両の進入が可能であると判定する。
 この場合、解析部11は、例えば、車載カメラ30により順次撮影された遮断機の画像解析された遮断棒または遮断用ワイヤーの位置変化から、遮断棒または遮断用ワイヤーが下がる方向に変化しているか、上がる方向に変化しているかを解析する。
 さらに、通知処理部13は、遮断棒または遮断用ワイヤーが上がろうとしている場合と下がろうとしている場合とで通知情報の態様を変化させてもよい。
 例えば、遮断棒または遮断用ワイヤーが下がろうとしている場合、通知処理部13は、自車両が進入不可であることを強調して出力装置4に出力する。モニタ40に表示する場合、自車両の進入不可を示すテキスト情報、図形、マークおよびこれらの組み合わせを強調表示させる。また、自車両の進入不可であることを示す通知情報の音量を、従前よりも大きくして出力させる。
 以上のように、実施の形態1に係る車両進入判定装置1は、図2に示した構成を有し、自車両の位置情報、自車両の周辺の地図情報、自車両の周辺状況のセンサ情報から、判定対象点と自車両との位置関係および判定対象点の状況を解析し、この解析結果に基づいて判定対象点への自車両の進入可否を判定している。これにより、自車両に搭載されたナビゲーション装置2およびセンサ群3で取得可能な情報に基づいて判定対象点への自車両の進入可否を判定することができる。すなわち、車両外の路側装置からの情報を使用しないので、インフラ構築が不要であり、車両に既存の装置を利用して安価に構成可能である。
 また、実施の形態1に係る車両進入判定装置1において、解析部11は、センサ情報を使用して自車両の位置情報を補正する。このように構成することで、自車両の位置精度を高めることができ、ひいては進入可否の判定結果の信頼性を高めることができる。
 さらに、実施の形態1に係る車両進入判定装置1において、解析部11は、車載カメラ30によって撮影された撮影画像から判定対象点の状況を解析する。このように構成することで、判定対象点の状況を特定するために新たなハードウェアを追加する必要がなく、低コストのシステムを実現することができる。
 さらに、実施の形態1に係る車両進入判定装置1において、解析部11は、自車両の位置情報、自車両の周辺の地図情報、車載センサ31によって検出された前方車両のセンサ情報から、前方車両と自車両との位置関係を解析する。判定部12は、判定対象点と自車両との位置関係、判定対象点の状況および前方車両と自車両との位置関係に基づいて判定対象点への自車両の進入可否を判定する。このように構成することで、自車両に搭載されたナビゲーション装置2およびセンサ群3によって取得可能な情報を用いて、判定対象点への自車両の進入可否を判定することができる。
 さらに、実施の形態1に係る車両進入判定装置1において、通知処理部13は、判定部12によって判定対象点に自車両の進入が不可であると判定された場合に、この判定結果を示す通知情報を出力装置4に出力する。このように構成することで、運転者の判断が誤って判定対象点に自車両が進入しようとしている場合、自車両の進入が不可な状況であることを的確に通知することができる。
実施の形態2.
 図6は、この発明の実施の形態2に係る車両進入判定システム5の構成を示すブロック図である。車両進入判定システム5は、図6に示すように、車両Aに搭載された車両進入判定装置1と、車両Aの外部に設けられたサーバ装置6とを備える。車両Aは、車両進入判定装置1の他に、図1に記載されたナビゲーション装置2、センサ群3、出力装置4を搭載する車両である。なお、図6において、図1と同一の構成要素には同一符号を付して説明を省略する。
 サーバ装置6は、インターネットなどの通信ネットワークを介して車両進入判定装置1またはナビゲーション装置2と通信可能な装置であって、記憶部60、検索部61および通信部62を備える。記憶部60は、地図情報のデータベースを記憶する記憶部である。検索部61は、車両Aの位置情報に応じた地図情報を記憶部60から検索する。通信部62は、通信ネットワークを介して車両Aの位置情報を受信し、検索部61によって検索された地図情報を車両Aに送信する。
 例えば、車両Aに搭載されたナビゲーション装置2が、車両Aの位置情報を含む検索要求をサーバ装置6に送信する。サーバ装置6の検索部61は、検索要求に含まれる位置情報に基づいて記憶部60を検索し、この位置情報を含む周辺の地図情報を取得する。
 このようにして検索された地図情報は、通信部62によって要求元のナビゲーション装置2に返信される。車両進入判定装置1の情報取得部10は、ナビゲーション装置2から車両Aの周辺の地図情報を取得する。これにより、ナビゲーション装置2が地図情報を備えていなくても、情報取得部10は、車両Aの周辺の地図情報を取得することができる。
 なお、ナビゲーション装置2がサーバ装置6から地図情報を取得する場合を示したが、車両進入判定装置1の情報取得部10が、車両Aの位置情報を含む検索要求をサーバ装置6に送信して、サーバ装置6から地図情報を直接取得してもよい。
 以上のように、実施の形態2に係る車両進入判定システム5は、車両進入判定装置1とサーバ装置6とを備える。サーバ装置6は、記憶部60、検索部61および通信部62を備える。記憶部60は、地図情報を記憶する。検索部61は、車両進入判定装置1を搭載する車両Aの位置情報に応じた地図情報を記憶部60から検索する。通信部62は、車両Aの位置情報を受信し、検索部61により検索された地図情報を車両Aに送信する。
 このように構成することでも、車両Aに搭載されたナビゲーション装置2およびセンサ群3で取得可能な情報に基づいて判定対象点への自車両の進入可否を判定することができる。すなわち、車両外の路側装置からの情報を使用しないので、インフラ構築が不要であり、車両に既存の装置を利用して安価に構成可能である。
 なお、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 この発明に係る車両進入判定装置は、車両に搭載された装置によって取得可能な情報に基づいて、判定対象点への車両の進入可否を判定することができるので、例えば、車両に既存のナビゲーション装置の1つの機能として利用可能である。
 1 車両進入判定装置、2 ナビゲーション装置、3 センサ群、4 出力装置、5 車両進入判定システム、6 サーバ装置、10 情報取得部、11 解析部、12 判定部、13 通知処理部、30 車載カメラ、31 車載センサ、40 モニタ、41 スピーカ、60 記憶部、61 検索部、62 通信部、100 処理回路、101 CPU、102 メモリ。

Claims (6)

  1.  自車両の位置情報、自車両の周辺の地図情報および自車両に搭載されたセンサによって検出された自車両の周辺状況のセンサ情報を取得する情報取得部と、
     前記情報取得部によって取得された各情報から、自車両の進入可否を判定する対象の地点である判定対象点と自車両との位置関係および前記判定対象点の状況を解析する解析部と、
     前記解析部の解析結果に基づいて前記判定対象点への自車両の進入可否を判定する判定部と、
     前記判定部の判定結果に応じて進入可否の通知情報を出力装置に出力する通知処理部と
    を備えたことを特徴とする車両進入判定装置。
  2.  前記解析部は、前記センサ情報を使用して自車両の位置情報を補正することを特徴とする請求項1記載の車両進入判定装置。
  3.  前記センサは、自車両の周辺を撮影する車載カメラであり、
     前記解析部は、前記車載カメラによって撮影された撮影画像から前記判定対象点の状況を解析することを特徴とする請求項1記載の車両進入判定装置。
  4.  前記センサは、前方車両を検出する車載センサであり、
     前記解析部は、自車両の位置情報、自車両の周辺の地図情報、前記車載センサによって検出された前方車両のセンサ情報から、前方車両と自車両との位置関係を解析し、
     前記判定部は、前記判定対象点と自車両との位置関係、前記判定対象点の状況、および前方車両と自車両との位置関係に基づいて、前記判定対象点への自車両の進入可否を判定することを特徴とする請求項1記載の車両進入判定装置。
  5.  前記通知処理部は、前記判定部によって前記判定対象点に自車両の進入が不可であると判定された場合に、この判定結果を示す通知情報を前記出力装置に出力することを特徴とする請求項1記載の車両進入判定装置。
  6.  請求項1記載の車両進入判定装置と、
     地図情報を記憶する記憶部、車両進入判定装置を搭載する車両の位置情報に応じた地図情報を前記記憶部から検索する検索部、および前記車両の位置情報を受信し前記検索部により検索された地図情報を前記車両に送信する通信部を有するサーバ装置と
    を備えたことを特徴とする車両進入可否判定システム。
PCT/JP2015/080379 2015-10-28 2015-10-28 車両進入判定装置および車両進入判定システム WO2017072878A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/080379 WO2017072878A1 (ja) 2015-10-28 2015-10-28 車両進入判定装置および車両進入判定システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/080379 WO2017072878A1 (ja) 2015-10-28 2015-10-28 車両進入判定装置および車両進入判定システム

Publications (1)

Publication Number Publication Date
WO2017072878A1 true WO2017072878A1 (ja) 2017-05-04

Family

ID=58629999

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/080379 WO2017072878A1 (ja) 2015-10-28 2015-10-28 車両進入判定装置および車両進入判定システム

Country Status (1)

Country Link
WO (1) WO2017072878A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7158581B1 (ja) * 2020-12-29 2022-10-21 三菱電機株式会社 経路生成装置、経路生成方法及び経路生成プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001052297A (ja) * 1999-08-06 2001-02-23 Fujitsu Ltd 安全走行支援装置、その方法及び記録媒体
WO2009004749A1 (ja) * 2007-07-04 2009-01-08 Mitsubishi Electric Corporation ナビゲーションシステム
JP2012226618A (ja) * 2011-04-20 2012-11-15 Mitsubishi Motors Corp 運転支援装置
JP2014126372A (ja) * 2012-12-25 2014-07-07 Denso Corp 地図表示システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001052297A (ja) * 1999-08-06 2001-02-23 Fujitsu Ltd 安全走行支援装置、その方法及び記録媒体
WO2009004749A1 (ja) * 2007-07-04 2009-01-08 Mitsubishi Electric Corporation ナビゲーションシステム
JP2012226618A (ja) * 2011-04-20 2012-11-15 Mitsubishi Motors Corp 運転支援装置
JP2014126372A (ja) * 2012-12-25 2014-07-07 Denso Corp 地図表示システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7158581B1 (ja) * 2020-12-29 2022-10-21 三菱電機株式会社 経路生成装置、経路生成方法及び経路生成プログラム

Similar Documents

Publication Publication Date Title
US10302448B2 (en) Automobile periphery information display system
US10163016B2 (en) Parking space detection method and device
EP3364394B1 (en) Information processing apparatus
EP3358545B1 (en) Travel control method and travel control device
CN110036429B (zh) 驾驶支援***及驾驶支援装置
US10099617B2 (en) Driving assistance device and driving assistance method
JP2008123462A (ja) 物体検知装置
JP2005202678A (ja) 走行支援装置
WO2018061682A1 (ja) 運転支援装置及び運転支援方法
CN103105168A (zh) 用于确定位置的方法
JP2018133072A (ja) 情報処理装置およびプログラム
JP6652024B2 (ja) 車両制御方法及び車両制御装置
US10632912B2 (en) Alarm device
JP2007164671A (ja) 障害物接近判断装置および障害物衝突警告システム
US20120166083A1 (en) Navigation device, navigation method, and navigation program
JP6129268B2 (ja) 車両用運転支援システムおよび運転支援方法
CN110979310A (zh) 车辆控制装置
JP4948338B2 (ja) 車間距離計測装置
JP6396672B2 (ja) 情報表示装置及び情報表示方法
US9715634B2 (en) Method and device for determining a distance of a vehicle from a traffic-regulating object
KR102418051B1 (ko) 차선별 교통상황 판단 장치, 시스템, 및 방법
JP2011012965A (ja) 車線判定装置及びナビゲーションシステム
WO2017072878A1 (ja) 車両進入判定装置および車両進入判定システム
KR102239483B1 (ko) 차량의 맵매칭 방법 및 그 장치
CN113492846B (zh) 控制装置、控制方法以及存储程序的计算机可读取存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15907242

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15907242

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP