WO2018179965A1 - 障害物検知装置 - Google Patents

障害物検知装置 Download PDF

Info

Publication number
WO2018179965A1
WO2018179965A1 PCT/JP2018/005300 JP2018005300W WO2018179965A1 WO 2018179965 A1 WO2018179965 A1 WO 2018179965A1 JP 2018005300 W JP2018005300 W JP 2018005300W WO 2018179965 A1 WO2018179965 A1 WO 2018179965A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
obstacle
reflection position
estimated reflection
image
Prior art date
Application number
PCT/JP2018/005300
Other languages
English (en)
French (fr)
Inventor
充保 松浦
大塚 秀樹
博彦 柳川
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to CN201880020276.2A priority Critical patent/CN110462706B/zh
Priority to DE112018001708.7T priority patent/DE112018001708T5/de
Publication of WO2018179965A1 publication Critical patent/WO2018179965A1/ja
Priority to US16/584,137 priority patent/US10929695B2/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/937Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles sensor installation details

Definitions

  • the present disclosure relates to an obstacle detection device configured to detect an obstacle existing outside the vehicle by being mounted on the vehicle.
  • the obstacle detection device is configured to detect an obstacle existing outside the vehicle by being mounted on the vehicle.
  • this obstacle detection device is A probe wave is transmitted toward the outside of the vehicle, and a received wave having an intensity corresponding to a distance between the vehicle and the obstacle due to reflection of the probe wave by the obstacle is received.
  • Ranging sensor An imaging unit provided to capture an image around the vehicle;
  • a detection processing unit provided to detect the obstacle based on the reception result of the received wave by the distance measuring sensor and the imaging result of the image by the imaging unit; It has.
  • the detection processing unit Based on the reception result, obtain an estimated reflection position that is estimated to be a position on the obstacle that is a position included in the irradiated area where the exploration wave has already been irradiated and reflected the received wave; Recognizing the outer shape of the obstacle based on the estimated reflection position, Recognizing the outer shape of the obstacle included in the image picked up by the image pickup unit, the position of the obstacle included in the non-irradiated region closer to the vehicle traveling direction than the already irradiated region is recognized relative to the vehicle. It is configured to acquire based on the result and the result of the image recognition.
  • FIG. It is a schematic block diagram of the vehicle carrying the obstacle detection apparatus which concerns on embodiment. It is a functional block diagram of the obstacle detection apparatus shown by FIG. It is a conceptual diagram which shows the outline
  • a vehicle 10 is a so-called four-wheeled vehicle and includes a vehicle body 11 having a substantially rectangular shape in plan view.
  • vehicle traveling direction the moving direction side of the vehicle 10 in the direction parallel to the vehicle center line VL and when traveling forward.
  • the traveling direction of the vehicle is indicated by an arrow DT in FIG.
  • the vehicle traveling direction is a tangential direction of the traveling locus of the vehicle 10 during forward traveling.
  • a direction that is orthogonal to the vehicle center line VL and that defines the vehicle width of the vehicle 10 is referred to as a “vehicle width direction”.
  • the vehicle width direction is indicated by an arrow DW in FIG.
  • the vehicle width direction is a direction orthogonal to the vehicle height direction.
  • the “vehicle height direction” is a direction opposite to the direction of gravity when the vehicle 10 is placed on a horizontal plane, and is indicated by an arrow DH in FIG.
  • the vehicle traveling direction is referred to as “front”, and the opposite direction is referred to as “rear”.
  • the vehicle traveling direction is the x-axis positive direction and the vehicle height direction is the z-axis positive direction
  • the y-axis positive direction parallel to the vehicle width direction is “right”.
  • the opposite direction is called “left”.
  • the definitions such as “front side”, “rear side”, “right side”, and “left side” also conform to the above definitions.
  • a front bumper 13 is attached to the front surface portion 12 which is the front end portion of the vehicle body 11.
  • a rear bumper 15 is attached to a rear surface portion 14 which is a rear end portion of the vehicle body 11.
  • a door panel 17 is provided on the side surface 16 of the vehicle body 11. In the specific example shown in FIG. 1, a total of four door panels 17 are provided, two on each side.
  • a door mirror 18 is mounted on each of the pair of front door panels 17.
  • the vehicle 10 is equipped with an obstacle detection device 20.
  • the obstacle detection device 20 is configured to be able to detect an obstacle B existing outside the vehicle 10 by being mounted on the vehicle 10.
  • the obstacle detection device 20 includes a distance measuring sensor 21, an imaging unit 22, a vehicle speed sensor 23, a shift position sensor 24, a steering angle sensor 25, a control unit 26, and a display 27. ing.
  • the detail of each part which comprises the obstacle detection apparatus 20 is demonstrated.
  • the electrical connection relationship between each part constituting the obstacle detection device 20 is omitted in FIG.
  • the distance measuring sensor 21 transmits the exploration wave WS toward the outside of the vehicle 10 and also has a received wave having an intensity corresponding to the distance between the vehicle 10 and the obstacle B due to reflection of the exploration wave WS by the obstacle B. It is provided to receive WR.
  • the distance measuring sensor 21 is a so-called ultrasonic sensor, and is configured to transmit a search wave WS that is an ultrasonic wave and to receive a received wave WR including the ultrasonic wave. ing.
  • the distance measuring sensor 21 is electrically connected to the control unit 26.
  • the distance measuring sensor 21 transmits a search wave WS under the control of the control unit 26 and generates a signal corresponding to the reception result of the received wave WR (hereinafter referred to as “reception information”) to the control unit 26. It is supposed to send.
  • a plurality of distance measuring sensors 21 are attached to the vehicle body 11.
  • the plurality of distance measuring sensors 21 are each shifted from the vehicle center axis VL to one side in the vehicle width direction DW. Further, at least a part of the plurality of distance measuring sensors 21 is provided so as to transmit the exploration wave WS along a direction intersecting the vehicle traveling direction.
  • the front bumper 13 is equipped with a first front sonar SF1, a second front sonar SF2, a third front sonar SF3, and a fourth front sonar SF4 as distance measuring sensors 21.
  • the rear bumper 15 is equipped with a first rear sonar SR1, a second rear sonar SR2, a third rear sonar SR3, and a fourth rear sonar SR4 as distance measuring sensors 21.
  • a first side sonar SS 1, a second side sonar SS 2, a third side sonar SS 3, and a fourth side sonar SS 4 are mounted on the side surface portion 16 of the vehicle body 11 as distance measuring sensors 21.
  • the first front sonar SF1 is disposed at the left front corner of the vehicle body 11 so as to transmit the exploration wave WS to the left front of the vehicle 10.
  • the second front sonar SF ⁇ b> 2 is disposed at the right front corner of the vehicle body 11 so as to transmit the exploration wave WS to the right front of the vehicle 10.
  • the first front sonar SF1 and the second front sonar SF2 are provided symmetrically with respect to the vehicle center line VL.
  • the third front sonar SF3 is arranged between the first front sonar SF1 and the vehicle center line VL so as to transmit the exploration wave WS substantially in front of the vehicle 10.
  • the fourth front sonar SF4 is disposed between the second front sonar SF2 and the vehicle center line VL so as to transmit the exploration wave WS substantially in front of the vehicle 10.
  • the third front sonar SF3 and the fourth front sonar SF4 are provided symmetrically with respect to the vehicle center line VL.
  • the first rear sonar SR1 is arranged at the left rear corner of the vehicle body 11 so as to transmit the exploration wave WS to the left rear of the vehicle 10.
  • the second rear sonar SR ⁇ b> 2 is disposed at the right rear corner of the vehicle body 11 so as to transmit the exploration wave WS to the right rear of the vehicle 10.
  • the first rear sonar SR1 and the second rear sonar SR2 are provided symmetrically with respect to the vehicle center line VL.
  • the third rear sonar SR3 is disposed between the first rear sonar SR1 and the vehicle center line VL so as to transmit the exploration wave WS substantially behind the vehicle 10.
  • the fourth rear sonar SR4 is disposed between the second rear sonar SR2 and the vehicle center line VL so as to transmit the exploration wave WS substantially behind the vehicle 10.
  • the third rear sonar SR3 and the fourth rear sonar SR4 are provided symmetrically with respect to the vehicle center line VL.
  • the first side sonar SS1 is arranged between the left door mirror 18 and the first front sonar SF1 in the front-rear direction of the vehicle 10 so as to transmit the exploration wave WS to the left of the vehicle 10.
  • the second side sonar SS2 is disposed between the right door mirror 18 and the second front sonar SF2 in the front-rear direction of the vehicle 10 so as to transmit the exploration wave WS to the right side of the vehicle 10.
  • the first side sonar SS1 and the second side sonar SS2 are provided symmetrically with respect to the vehicle center line VL.
  • the third side sonar SS3 is disposed between the left rear door panel 17 and the first rear sonar SR1 in the front-rear direction of the vehicle 10 so as to transmit the exploration wave WS to the left of the vehicle 10.
  • the fourth side sonar SS4 is arranged between the right rear door panel 17 and the second rear sonar SR2 in the front-rear direction of the vehicle 10 so as to transmit the exploration wave WS to the right side of the vehicle 10.
  • the third side sonar SS3 and the fourth side sonar SS4 are provided symmetrically with respect to the vehicle center line VL.
  • the imaging unit 22 is a camera that includes an image sensor such as a charge coupled device (CCD), captures an image around the vehicle 10, and acquires image information corresponding to the image. It is provided as follows.
  • the imaging unit 22 is electrically connected to the control unit 26. That is, the imaging unit 22 acquires image information under the control of the control unit 26 and transmits the acquired image information to the control unit 26.
  • the vehicle 10 is equipped with a plurality of imaging units 22, that is, a front camera CF, a rear camera CB, a left camera CL, and a right camera CR.
  • the front camera CF is attached to the front surface portion 12 of the vehicle body 11 so as to acquire image information corresponding to an image in front of the vehicle 10.
  • the rear camera CB is attached to the rear surface portion 14 of the vehicle body 11 so as to acquire image information corresponding to an image behind the vehicle 10.
  • the left camera CL is attached to the left door mirror 18 so as to acquire image information corresponding to an image on the left side of the vehicle 10.
  • the right camera CR is attached to the right door mirror 18 so as to acquire image information corresponding to an image on the right side of the vehicle 10.
  • the vehicle speed sensor 23, the shift position sensor 24, and the steering angle sensor 25 are electrically connected to the control unit 26.
  • the vehicle speed sensor 23 is provided so as to generate a signal corresponding to the traveling speed of the vehicle 10 (hereinafter simply referred to as “vehicle speed”) and transmit the signal to the control unit 26.
  • the shift position sensor 24 is provided so as to generate a signal corresponding to the shift position and transmit it to the control unit 26.
  • the steering angle sensor 25 is provided so as to generate a signal corresponding to the steering angle and transmit it to the control unit 26.
  • the control unit 26 is provided inside the vehicle body 11.
  • the control unit 26 is a so-called in-vehicle microcomputer and includes a CPU, a ROM, a RAM, a non-volatile RAM (for example, a flash ROM), etc. (not shown). That is, the control unit 26 is configured such that various control operations can be realized by the CPU reading and executing a program (that is, each routine described later) from the ROM or the nonvolatile RAM. In addition, various data (initial values, look-up tables, maps, etc.) used when executing the program are stored in advance in the ROM or nonvolatile RAM.
  • the control unit 26 as a detection processing unit executes an obstacle detection operation based on signals and information received from the distance measuring sensor 21, the imaging unit 22, the vehicle speed sensor 23, the shift position sensor 24, and the steering angle sensor 25. It is configured as follows.
  • the display 27 is disposed in the vehicle interior of the vehicle 10. The display 27 is electrically connected to the control unit 26 so as to perform display associated with the obstacle detection operation under the control of the control unit 26.
  • FIG. 3 shows a state in which the vehicle 10 approaches a wall-like obstacle B that is erected so as to be inclined with respect to the vehicle traveling direction.
  • FIG. 3 in order to avoid complication of illustration and explanation, the vehicle 10 is moving straight ahead, and the illustration of the distance measuring sensor 21 and the like is simplified. The same applies to FIGS. 5 and 6 described later.
  • FIG. 4 shows a state of object shape recognition based on the imaging result by the imaging unit 22.
  • the control unit 26 is configured to detect the obstacle B (see FIG. 3 and the like) based on the reception result of the received wave WR by the distance measuring sensor 21 and the image capturing result of the image by the imaging unit 22.
  • the control unit 26 includes a shape recognition unit 61, an image recognition unit 63, and an integrated recognition unit 64.
  • the shape recognition unit 61 as the estimated reflection position acquisition unit acquires the estimated reflection position P based on the reception result of the received wave WR by the distance measuring sensor 21. In addition, the shape recognition unit 61 can sequentially acquire the estimated reflection position P while the vehicle 10 is moving.
  • the estimated reflection position P is a position that is included in the already irradiated region and is estimated to be a position on the obstacle B that reflects the received wave WR.
  • the already irradiated region is a region of the obstacle B where the exploration wave WS has already been irradiated when approaching the obstacle B of the vehicle 10 this time.
  • the reception result of the received wave WR corresponding to the acquired estimated reflection position P includes information regarding the distance from the vehicle 10 of the estimated reflection position P, that is, the distance from the distance measuring sensor 21 of the estimated reflection position P. It is. Therefore, the estimated reflection position P is a position on the virtual obstacle B corresponding to the distance acquired based on the reception result.
  • the shape recognition unit 61 recognizes the outer shape of the obstacle B based on the estimated reflection position P. Specifically, the shape recognition unit 61 recognizes the shape of the wall surface B0 facing the vehicle 10 in the obstacle B, based on at least one estimated reflection position P acquired sequentially while the vehicle 10 is moving. It is like that.
  • the image recognition unit 63 recognizes the shape of the obstacle B based on the image captured by the imaging unit 22. Specifically, in the present embodiment, the image recognition unit 63 extracts a feature shape such as an edge from the image information by a known image recognition method.
  • the integrated recognition unit 64 acquires the relative position of the desired point of interest in the obstacle B with respect to the vehicle 10. That is, the integrated recognizing unit 64 recognizes the relative position of the target location with respect to the vehicle 10 based on the outer shape recognition result by the shape recognizing unit 61 and the image recognition result by the image recognizing unit 63. Yes.
  • the integrated recognition unit 64 is the irradiated region in the obstacle B included in the image captured by the imaging unit 22. Further, a feature shape such as an edge extracted from the relative position of the portion (for example, the end B1 in FIG. 3 and the corresponding vertical edge EV in FIG. 4 corresponding to this) with respect to the vehicle 10 included in the unirradiated region on the vehicle traveling direction side. And the extension line EL.
  • the extension line EL is a straight line or a curve formed so as to extend from the estimated reflection position P to the vehicle traveling direction side along the outer shape recognized by the shape recognition unit 61.
  • estimate reflection position P is not limited to the estimated reflection position P shown in FIG. 3, FIG. 4 and FIG.
  • the estimated reflection position P1 of the eye and the estimated reflection position PN of the Nth may be used collectively.
  • the obstacle detection device 20 receives the reception wave WR received by the distance measuring sensor 21 while the vehicle 10 is moving. Based on the above, the estimated reflection position P is sequentially acquired. The obstacle detection device 20 recognizes the outer shape of the obstacle B based on the acquired estimated reflection position P.
  • the obstacle detection device 20 acquires the estimated reflection position P1 when the vehicle 10 reaches the position VP1. Thereafter, the obstacle detection device 20 acquires N estimated reflection positions P, that is, estimated reflection positions P1,... PN, until the vehicle 10 reaches the position VPN.
  • N is an integer of 2 or more.
  • the method of acquiring the estimated reflection position P1 is, the N estimated reflection positions P are acquired by a method similar to the acquisition method of the estimated reflection position P1 described below.
  • the obstacle detection device 20 receives the reception wave WR received by the specific distance measuring sensor 21 facing the wall surface B0 of the obstacle B immediately before the vehicle 10 reaches the position VP1 (for example, several hundred milliseconds). Based on the above, the distance between the distance measuring sensor 21 and the wall surface B0 is acquired. This is referred to as the “first distance”.
  • the above-mentioned “specific distance measuring sensor 21” is the second side sonar SS2 in FIG. 1 in the example of FIG.
  • the obstacle detection device 20 immediately after that, when the vehicle 10 reaches the position VP1, the distance measurement sensor 21 and the wall surface B0 based on the reception result of the reception wave WR in the distance measurement sensor 21. And get the distance. This is referred to as “second distance”.
  • the obstacle detection device 20 has the first circle whose radius is the first distance around the position of the distance measuring sensor 21 when the first distance is acquired, and the distance measurement when the second distance is acquired.
  • the intersection point with the second circle whose radius is the second distance with the position of the sensor 21 as the center is acquired as the estimated reflection position P1.
  • the obstacle detection device 20 acquires an extension line EL formed using the estimated reflection positions P1,.
  • the extension line EL is a curve or a straight line obtained by a known approximation method such as a least square method using the estimated reflection positions P1,. That is, the extension line EL is an approximate curve or approximate line formed using N estimated reflection positions P including the first estimated reflection position P1.
  • N 2
  • the estimated reflection position P1 is referred to as a first estimated reflection position
  • the extension line EL is a straight line obtained by extending a line segment connecting the first estimated reflection position and the second estimated reflection position.
  • N ⁇ 3 the extension line EL does not necessarily pass through all the estimated reflection positions P.
  • the extension line EL can be acquired based on one estimated reflection position P acquired as described above.
  • the obstacle detection device 20 is orthogonal to a line segment connecting the estimated reflection position P and the distance measuring sensor 21 corresponding to the estimated reflection position P, and the vehicle height.
  • a straight line passing through the estimated reflection position P orthogonal to the direction is acquired as the extension line EL.
  • the obstacle detection device 20 recognizes the outer shape of the obstacle B based on the extension line EL. That is, the obstacle detection device 20 recognizes the extension line EL as a straight line that forms the wall surface B0 of the obstacle B facing the vehicle 10.
  • the obstacle detection device 20 detects a desired point of interest (for example, the end B1) in the obstacle B based on the acquired extension line EL and the image recognition result.
  • a desired point of interest for example, the end B1 in the obstacle B
  • the vertical edge EV is on the vehicle traveling direction side with respect to the estimated reflection position P and in the vehicle width direction with respect to the vehicle center axis VL. It is determined whether or not it exists on the extension line EL on the estimated reflection position P side.
  • the obstacle detection device 20 acquires the relative position of the vertical edge EV with respect to the vehicle 10 as the position of the end B1 of the obstacle B.
  • the CPU repeatedly activates the image recognition routine shown in FIG. 7 and the object detection routine shown in FIG. 8 at predetermined time intervals after a predetermined activation condition is established.
  • the CPU acquires image information from the imaging unit 22 in S71.
  • the CPU executes an image recognition operation (specifically, an edge extraction process) by the image recognition unit 63. That is, the CPU extracts a feature shape such as the vertical edge EV in the obstacle B based on the image captured by the imaging unit 22.
  • the CPU stores the image recognition result in S72, that is, the feature shape extraction result in the non-volatile RAM, and ends this routine once.
  • the CPU acquires reception information, that is, information corresponding to the reception result of the reception wave WR from the distance measurement sensor 21.
  • the CPU determines whether or not the intensity of the received wave WR exceeds a predetermined threshold intensity WRth.
  • the CPU advances the process to S83 and thereafter.
  • the CPU acquires the estimated reflection position P based on the acquired reception information.
  • the CPU acquires a plurality of estimated reflection positions P1,... PN while the vehicle 10 is traveling for a predetermined time (for example, 1 second).
  • the CPU acquires one estimated reflection position P.
  • the CPU executes an outer shape recognition operation of the obstacle B by the shape recognition unit 61. That is, the CPU acquires the extension line EL based on the acquired at least one estimated reflection position P. Subsequently, in S85, the CPU acquires the extraction result of the vertical edge EV in the obstacle B from the information stored in the nonvolatile RAM. Thereafter, the CPU proceeds with the process to S86.
  • the CPU has the vertical edge EV on the extension line EL on the vehicle traveling direction side with respect to the estimated reflection position P and on the estimated reflection position P side in the vehicle width direction with respect to the vehicle center axis VL. Determine whether or not.
  • the CPU advances the process to S87.
  • the CPU acquires the relative position (that is, the azimuth and distance) of the vertical edge EV with respect to the vehicle 10, and once ends this routine.
  • the CPU skips the process of S87 and ends this routine once.
  • the vehicle 10 may travel while approaching a wall-shaped obstacle B that is erected obliquely with respect to the vehicle traveling direction.
  • the object shape recognition based on the distance measuring sensor 21 if the end B1 of the obstacle B on the vehicle traveling direction side is outside the irradiation range of the exploration wave WS, it is difficult to recognize the end B1. Therefore, only the object shape recognition based on the distance measuring sensor 21 makes it difficult to determine whether or not the end B1 may come into contact with the vehicle body 11 when the vehicle 10 travels as it is. Further, it is difficult to determine the distance to the planned contact point or the required time to the planned contact time only when the object shape recognition based on the distance measuring sensor 21 is likely to come into contact with the vehicle body 11. Become.
  • the obstacle detection device 20 integrates the recognition result of the outer shape based on the distance measuring sensor 21 and the recognition result of the feature shape by image recognition based on the imaging result by the imaging unit 22.
  • the position of the end B1 of the obstacle B can be acquired (that is, estimated) satisfactorily.
  • the above determination can be performed easily and accurately. That is, according to the configuration of the present embodiment, the relative positional relationship between the host vehicle and the obstacle B existing outside the host vehicle can be acquired as accurately as possible.
  • the vehicle 10 is not limited to a four-wheeled vehicle.
  • the vehicle 10 may be a three-wheeled vehicle or a six-wheeled or eight-wheeled vehicle such as a cargo truck.
  • the type of the vehicle 10 may be an automobile including only an internal combustion engine, an electric vehicle or a fuel cell vehicle not including an internal combustion engine, or a hybrid vehicle.
  • the number of door panels 17 is not particularly limited.
  • the arrangement and the number of the distance measuring sensors 21 are not limited to the above specific example. That is, for example, when the third front sonar SF3 is disposed at the center position in the vehicle width direction, the fourth front sonar SF4 is omitted. Similarly, when the third rear sonar SR3 is arranged at the center position in the vehicle width direction, the fourth rear sonar SR4 is omitted. The third side sonar SS3 and the fourth side sonar SS4 may be omitted.
  • the ranging sensor 21 is not limited to an ultrasonic sensor. That is, for example, the distance measuring sensor 21 may be a laser radar sensor or a millimeter wave radar sensor.
  • the arrangement and number of the imaging units 22 are not limited to the above example. That is, for example, the left camera CL and the right camera CR may be arranged at positions different from the door mirror 18. Alternatively, the left camera CL and the right camera CR can be omitted.
  • the parking mode selection operation can be performed only by the front camera CF, or by only the left camera CL and the right camera CR.
  • control unit 26 is configured to be activated by the CPU reading a program from the ROM or the like.
  • the present disclosure is not limited to such a configuration. That is, for example, the control unit 26 may be a digital circuit configured to be able to operate as described above, for example, an ASIC such as a gate array.
  • ASIC is an abbreviation of APPLICATION SPECIFIC INTEGRATED CIRCUIT.
  • the storage location of the recognition result may be a storage medium (for example, RAM and / or magnetic storage medium) other than the nonvolatile RAM.
  • the calculation or estimation of the distance corresponding to the received wave WR may be performed by a processor mounted on the distance measuring sensor 21 or may be performed by the control unit 26.
  • the method for obtaining the estimated reflection position P is not limited to the above specific example.
  • the estimated reflection position P can be acquired quickly and easily by assuming that the direction of the received wave WR is a specific direction.
  • This specific orientation can be, for example, the central axis direction of the cone corresponding to the transmission range of the exploration wave WS.
  • a direction parallel to the vehicle traveling direction side of the buses constituting the cone may be used. In these cases, the estimated reflection position P can be acquired based on the assumed specific orientation and the acquired distance.
  • the obstacle detection device 20 includes one distance measuring sensor 21, that is, the second side sonar SS2 in the examples of FIGS.
  • the estimated reflection position P can be specified by one transmission of the exploration wave WS and reception of the reception wave WR associated therewith.
  • the obstacle detection device 20 can acquire the estimated reflection positions P1,... PN shown in FIG.
  • the obstacle detection device 20 can complete the acquisition of the estimated reflection position P and the extension line EL based on the estimated reflection position P by the method shown in FIG. 6 in a shorter time.
  • the obstacle detection device 20 has a plurality of distance measuring sensors 21. For this reason, when the transmission / reception range in each of the plurality of distance measuring sensors 21 is wide, the obstacle detection device 20 has the time difference and / or the plurality of received waves WR received by the plurality of distance measuring sensors 21 adjacent to each other. It is possible to calculate the azimuth of the estimated reflection position P using the phase difference. Also in this case, the obstacle detection device 20 can acquire the estimated reflection positions P1,... PN shown in FIG. Alternatively, the obstacle detection device 20 can complete the acquisition of the extension line EL by the method shown in FIG. 6 in a shorter time.
  • the processing in the image recognition unit 63 may be so-called SFM processing.
  • SFM is an abbreviation for Structure From Motion. That is, the image recognition unit 63 may be configured to recognize the feature shape of the obstacle B three-dimensionally using the SFM technique.
  • the SFM technique is already known at the time of filing of the present application (see, for example, Japanese Patent No. 50212615, Japanese Patent No. 5714940, etc.). Therefore, in this specification, a detailed description of the SFM technique or the SFM process is omitted.
  • the image recognition unit 63 is provided so as to three-dimensionally recognize the shape of the obstacle B based on a plurality of images captured by the imaging unit 22 while the vehicle 10 is moving. Further, the integrated recognition unit 64 as the end recognition unit acquires the relative position of the desired point of interest in the obstacle B with respect to the vehicle 10. In other words, the integrated recognizing unit 64 determines the relative position of the attention location to the vehicle 10 based on the recognition result of the outer shape of the obstacle B by the shape recognition unit 61 and the image recognition result of the obstacle B by the image recognition unit 63. Get the position.
  • the processing in S71 and S73 is the same as that in FIG. Therefore, description of these steps is omitted.
  • the CPU advances the process to S92.
  • the CPU executes an image recognition operation by the image recognition unit 63, that is, an SFM process. Specifically, the CPU recognizes the three-dimensional shape of the obstacle B based on a plurality of images captured by the imaging unit 22 while the vehicle 10 is moving. Thereafter, the CPU advances the process to S73.
  • the processes in S81 to S84 are the same as those in FIG. Therefore, description of these steps is omitted.
  • the CPU advances the process to S105.
  • the CPU acquires the extraction result of the end B1 of the obstacle B based on the image recognition result by the SFM technique stored in the nonvolatile RAM. Thereafter, the CPU proceeds with the process to S106.
  • the CPU extends the extension line EL so that the end B1 of the obstacle B is closer to the estimated reflection position P in the vehicle travel direction than the estimated reflection position P and in the vehicle width direction from the vehicle center axis VL. Determine if it exists above.
  • the CPU advances the process to S107.
  • the CPU acquires the relative position (that is, the azimuth and distance) of the end B1 with respect to the vehicle 10, and once ends this routine.
  • the CPU skips the process of S107 and ends this routine once.
  • “Recognition” of the outer shape of the obstacle B can be rephrased as “acquisition” or “estimation” of the outer shape.
  • “Extraction” of the feature shape in the obstacle B can be rephrased as “recognition” of the feature shape.
  • “Acquisition” of the relative position of the end B1 of the obstacle B with respect to the vehicle 10 may be referred to as “estimation” or “calculation” of the relative position.
  • “Acquisition” of the extension line EL can be rephrased as “calculation”.
  • the inequality sign in each determination process may be with or without an equal sign. That is, for example, “exceeding the threshold value” can be changed to “above the threshold value”.
  • modified examples are not limited to the above examples. A plurality of modifications may be combined with each other. Furthermore, all or a part of the above-described embodiment and all or a part of the modified examples can be combined with each other.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Acoustics & Sound (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

障害物検知装置(20)は、測距センサ(21)と、撮像部(22)と、制御部(26)とを備えている。制御部は、測距センサによる受信波の受信結果に基づいて、探査波が既に照射された既照射領域に含まれる推定反射位置を取得する。制御部は、推定反射位置に基づいて、障害物の外形形状を認識する。制御部は、撮像部による撮像結果に基づいて、障害物を画像認識する。制御部は、撮像部により撮像された画像中に含まれる障害物における、既照射領域よりも車両進行方向側の未照射領域に含まれる箇所の、車両に対する相対位置を、障害物の外形形状の認識結果及び画像認識の結果に基づいて取得する。

Description

障害物検知装置 関連出願への相互参照
 本出願は、2017年3月28日に出願された日本特許出願番号2017-63622号に基づくもので、ここにその記載内容が参照により組み入れられる。
 本開示は、車両に搭載されることで、当該車両外に存在する障害物を検知するように構成された、障害物検知装置に関する。
 この種の装置において、超音波センサ等の測距センサを用いたものが、従来種々提案されている(例えば特開2013-16052号公報等参照)。
 この種の装置においては、自車両と自車両外に存在する障害物との相対位置関係を、可及的正確に取得することが求められている。
 本開示の1つの観点によれば、障害物検知装置は、車両に搭載されることで、当該車両外に存在する障害物を検知するように構成されている。
 具体的には、この障害物検知装置は、
 探査波を前記車両の外側に向けて発信するとともに、前記探査波の前記障害物による反射に起因し前記車両と前記障害物との距離に応じた強度を有する受信波を受信するように設けられた、測距センサと、
 前記車両の周囲の画像を撮像するように設けられた、撮像部と、
 前記測距センサによる前記受信波の受信結果と、前記撮像部による前記画像の撮像結果とに基づいて、前記障害物を検知するように設けられた、検知処理部と、
 を備えている。
 また、この障害物検知装置において、
 前記検知処理部は、
  前記受信結果に基づいて、前記探査波が既に照射された既照射領域に含まれる位置であって前記受信波を反射した前記障害物上の位置であると推定される推定反射位置を取得し、
  前記推定反射位置に基づいて、前記障害物の外形形状を認識し、
  前記撮像部により撮像された前記画像中に含まれる前記障害物における、前記既照射領域よりも車両進行方向側の未照射領域に含まれる箇所の、前記車両に対する相対位置を、前記外形形状の認識結果及び前記画像認識の結果に基づいて取得する
 ように構成されている。
 なお、各手段に付された括弧付きの参照符号は、同手段と後述する実施形態に記載の具体的手段との対応関係の一例を示すものである。
実施形態に係る障害物検知装置を搭載した車両の概略構成図である。 図1に示された障害物検知装置の機能ブロック図である。 図1に示された障害物検知装置の動作の概要を示す概念図である。 図1に示された障害物検知装置の動作の概要を示す概念図である。 図1に示された障害物検知装置の動作の概要を示す概念図である。 図1に示された障害物検知装置の動作の概要を示す概念図である。 図1に示された障害物検知装置における第一の動作例を示すフローチャートである。 図1に示された障害物検知装置における第一の動作例を示すフローチャートである。 図1に示された障害物検知装置における第二の動作例を示すフローチャートである。 図1に示された障害物検知装置における第二の動作例を示すフローチャートである。
 以下、実施形態を、図面に基づいて説明する。なお、実施形態に対して適用可能な各種の変更については、変形例として、一連の実施形態の説明の後に、まとめて説明する。
 (構成)
 図1を参照すると、車両10は、いわゆる四輪自動車であって、平面視にて略矩形状の車体11を備えている。
 以下、車両中心線VLと平行な方向における一方であって、前進走行時の車両10の移動方向側を、便宜上、「車両進行方向」と称する。車両進行方向は、図1において矢印DTで示されている。上記の定義によれば、車両進行方向は、前進走行時における車両10の走行軌跡の接線方向となる。
 また、車両中心線VLと直交する方向であって、車両10の車幅を規定する方向を、「車幅方向」と称する。車幅方向は、図1において矢印DWで示されている。車幅方向は、車高方向とも直交する方向である。「車高方向」は、車両10を水平面に載置した場合の、重力作用方向の逆方向であり、図1において矢印DHで示されている。
 以下、車両10又は車体11の各部を参照する際に、車両進行方向を「前方」と称し、その反対方向を「後方」と称する。また、左手系の直交3次元座標系において、車両進行方向をx軸正方向とし、車高方向をz軸正方向とした場合の、車幅方向と平行なy軸正方向を「右方」と称し、その反対方向を「左方」と称する。「前側」、「後側」、「右側」、及び「左側」等の定義も、上記の各定義に準ずる。
 車体11における前側の端部である前面部12には、フロントバンパー13が装着されている。車体11における後側の端部である後面部14には、リアバンパー15が装着されている。車体11における側面部16には、ドアパネル17が設けられている。図1に示す具体例においては、左右にそれぞれ2枚ずつ、合計4枚のドアパネル17が設けられている。前側の一対のドアパネル17のそれぞれには、ドアミラー18が装着されている。
 車両10には、障害物検知装置20が搭載されている。障害物検知装置20は、車両10に搭載されることで、当該車両10の外部に存在する障害物Bを検知可能に構成されている。具体的には、障害物検知装置20は、測距センサ21と、撮像部22と、車速センサ23と、シフトポジションセンサ24と、舵角センサ25と、制御部26と、ディスプレイ27とを備えている。以下、障害物検知装置20を構成する各部の詳細について説明する。なお、図示の簡略化のため、障害物検知装置20を構成する各部の間の電気接続関係は、図1においては省略されている。
 測距センサ21は、探査波WSを車両10の外側に向けて発信するとともに、障害物Bによる探査波WSの反射に起因し車両10と障害物Bとの距離に応じた強度を有する受信波WRを受信するように設けられている。具体的には、本実施形態においては、測距センサ21は、いわゆる超音波センサであって、超音波である探査波WSを発信するとともに、超音波を含む受信波WRを受信可能に構成されている。測距センサ21は、制御部26に電気接続されている。即ち、測距センサ21は、制御部26の制御下で探査波WSを発信するとともに、受信波WRの受信結果に対応する信号(以下「受信情報」と称する)を発生して制御部26に送信するようになっている。
 本実施形態においては、複数の測距センサ21が、車体11に装着されている。複数の測距センサ21は、それぞれ、車両中心軸VLから、車幅方向DWにおけるいずれか一方側にシフトして配置されている。また、複数の測距センサ21のうちの少なくとも一部は、車両進行方向と交差する方向に沿って探査波WSを発信するように設けられている。
 具体的には、フロントバンパー13には、測距センサ21としての、第一フロントソナーSF1、第二フロントソナーSF2、第三フロントソナーSF3、及び第四フロントソナーSF4が装着されている。同様に、リアバンパー15には、測距センサ21としての、第一リアソナーSR1、第二リアソナーSR2、第三リアソナーSR3、及び第四リアソナーSR4が装着されている。また、車体11の側面部16には、測距センサ21としての、第一サイドソナーSS1、第二サイドソナーSS2、第三サイドソナーSS3、及び第四サイドソナーSS4が装着されている。
 第一フロントソナーSF1は、車両10の左前方に探査波WSを発信するように、車体11の左前角部に配置されている。第二フロントソナーSF2は、車両10の右前方に探査波WSを発信するように、車体11の右前角部に配置されている。第一フロントソナーSF1と第二フロントソナーSF2とは、車両中心線VLを挟んで対称に設けられている。
 第三フロントソナーSF3は、車両10の略前方に探査波WSを発信するように、第一フロントソナーSF1と車両中心線VLとの間に配置されている。第四フロントソナーSF4は、車両10の略前方に探査波WSを発信するように、第二フロントソナーSF2と車両中心線VLとの間に配置されている。第三フロントソナーSF3と第四フロントソナーSF4とは、車両中心線VLを挟んで対称に設けられている。
 第一リアソナーSR1は、車両10の左後方に探査波WSを発信するように、車体11の左後角部に配置されている。第二リアソナーSR2は、車両10の右後方に探査波WSを発信するように、車体11の右後角部に配置されている。第一リアソナーSR1と第二リアソナーSR2とは、車両中心線VLを挟んで対称に設けられている。
 第三リアソナーSR3は、車両10の略後方に探査波WSを発信するように、第一リアソナーSR1と車両中心線VLとの間に配置されている。第四リアソナーSR4は、車両10の略後方に探査波WSを発信するように、第二リアソナーSR2と車両中心線VLとの間に配置されている。第三リアソナーSR3と第四リアソナーSR4とは、車両中心線VLを挟んで対称に設けられている。
 第一サイドソナーSS1は、車両10の左方に探査波WSを発信するように、車両10の前後方向について、左側のドアミラー18と第一フロントソナーSF1との間に配置されている。第二サイドソナーSS2は、車両10の右方に探査波WSを発信するように、車両10の前後方向について、右側のドアミラー18と第二フロントソナーSF2との間に配置されている。第一サイドソナーSS1と第二サイドソナーSS2とは、車両中心線VLを挟んで対称に設けられている。
 第三サイドソナーSS3は、車両10の左方に探査波WSを発信するように、車両10の前後方向について、左後側のドアパネル17と第一リアソナーSR1との間に配置されている。第四サイドソナーSS4は、車両10の右方に探査波WSを発信するように、車両10の前後方向について、右後側のドアパネル17と第二リアソナーSR2との間に配置されている。第三サイドソナーSS3と第四サイドソナーSS4とは、車両中心線VLを挟んで対称に設けられている。
 本実施形態においては、撮像部22は、電荷結合素子(CCD)等のイメージセンサを備えたカメラであって、車両10の周囲の画像を撮像して、当該画像に対応する画像情報を取得するように設けられている。撮像部22は、制御部26に電気接続されている。即ち、撮像部22は、制御部26の制御下で画像情報を取得するとともに、取得した画像情報を制御部26に送信するようになっている。本実施形態においては、車両10には、複数の撮像部22、即ち、フロントカメラCF、リアカメラCB、左側カメラCL、及び右側カメラCRが搭載されている。
 フロントカメラCFは、車両10の前方の画像に対応する画像情報を取得するように、車体11の前面部12に装着されている。リアカメラCBは、車両10の後方の画像に対応する画像情報を取得するように、車体11の後面部14に装着されている。左側カメラCLは、車両10の左側方の画像に対応する画像情報を取得するように、左側のドアミラー18に装着されている。右側カメラCRは、車両10の右側方の画像に対応する画像情報を取得するように、右側のドアミラー18に装着されている。
 車速センサ23、シフトポジションセンサ24、及び舵角センサ25は、制御部26に電気接続されている。車速センサ23は、車両10の走行速度(以下単に「車速」と称する)に対応する信号を発生して、制御部26に送信するように設けられている。シフトポジションセンサ24は、シフトポジションに対応する信号を発生して、制御部26に送信するように設けられている。舵角センサ25は、操舵角に対応する信号を発生して、制御部26に送信するように設けられている。
 制御部26は、車体11の内部に設けられている。制御部26は、いわゆる車載マイクロコンピュータであって、図示しないCPU、ROM、RAM、不揮発性RAM(例えばフラッシュROM)、等を備えている。即ち、制御部26は、CPUがROM又は不揮発性RAMからプログラム(即ち後述の各ルーチン)を読み出して実行することで、各種の制御動作を実現可能に構成されている。また、ROM又は不揮発性RAMには、プログラムの実行の際に用いられる各種のデータ(初期値、ルックアップテーブル、マップ等)が、予め格納されている。
 検知処理部としての制御部26は、測距センサ21、撮像部22、車速センサ23、シフトポジションセンサ24、及び舵角センサ25から受信した信号及び情報に基づいて、障害物検知動作を実行するように構成されている。ディスプレイ27は、車両10における車室内に配置されている。ディスプレイ27は、制御部26の制御下で、障害物検知動作に伴う表示を行うように、制御部26に電気接続されている。
 次に、図2~図4を参照しつつ、検知処理部としての制御部26における、機能ブロック構成について説明する。図3は、車両10が、車両進行方向に対して斜行するように立設した壁状の障害物Bに接近する様子を示す。なお、図3においては、図示及び説明の煩雑化を回避するため、車両10は直進中とし、測距センサ21等の図示が簡略化されている。これらは、後述する図5及び図6についても同様である。図4は、撮像部22による撮像結果に基づく物体形状認識の様子を示す。
 制御部26は、測距センサ21による受信波WRの受信結果と、撮像部22による画像の撮像結果に基づいて、障害物B(図3等参照)を検知するように構成されている。具体的には、図2に示されているように、制御部26は、形状認識部61と、画像認識部63と、統合認識部64とを有している。
 推定反射位置取得部としての形状認識部61は、測距センサ21による受信波WRの受信結果に基づいて、推定反射位置Pを取得するようになっている。また、形状認識部61は、車両10の移動中に、推定反射位置Pを順次取得可能となっている。
 推定反射位置Pは、既照射領域に含まれる位置であって、受信波WRを反射した障害物B上の位置であると推定される位置である。既照射領域とは、今回の車両10の障害物Bとの接近に際して、探査波WSが既に照射された、障害物Bの領域である。なお、取得された推定反射位置Pに対応する受信波WRの受信結果には、推定反射位置Pの車両10からの距離、即ち、推定反射位置Pの測距センサ21からの距離に関する情報が含まれる。故に、推定反射位置Pは、受信結果に基づいて取得された距離に対応する、仮想的な障害物B上の位置である。
 また、形状認識部61は、推定反射位置Pに基づいて、障害物Bの外形形状を認識するようになっている。具体的には、形状認識部61は、車両10の移動中に順次取得した、少なくとも1個の推定反射位置Pに基づいて、障害物Bにおける、車両10に対向する壁面B0の形状を認識するようになっている。
 画像認識部63は、撮像部22により撮像された画像に基づいて、障害物Bの形状を認識するようになっている。具体的には、本実施形態においては、画像認識部63は、周知の画像認識手法により、画像情報からエッジ等の特徴形状を抽出するようになっている。
 統合認識部64は、障害物Bにおける所望の注目箇所の、車両10に対する相対位置を取得するようになっている。即ち、統合認識部64は、形状認識部61による外形形状の認識結果と、画像認識部63による画像認識結果とに基づいて、上記の注目箇所の車両10に対する相対位置を認識するようになっている。
 具体的には、図3及び図4に示されているように、本実施形態においては、統合認識部64は、撮像部22により撮像された画像中に含まれる障害物Bにおける、既照射領域よりも車両進行方向側の未照射領域に含まれる箇所(例えば図3の端部B1及びこれに対応する図4の縦エッジEV)の、車両10に対する相対位置を、抽出したエッジ等の特徴形状と延長線ELとに基づいて取得するようになっている。延長線ELは、形状認識部61により認識した外形形状に沿って、推定反射位置Pから車両進行方向側に延びるように形成された直線又は曲線である。
 (動作概要)
 以下、障害物検知装置20における動作の概要について説明する。なお、下記の説明において、「推定反射位置P」の表現は、図3、図4及び図6に示されている推定反射位置Pを指す場合の他に、図5に示されている1個目の推定反射位置P1及びN個目の推定反射位置PNをも総称する場合に用いられる場合がある。
 図3に示されているように、障害物検知装置20(即ち図1及び図2に示された制御部26)は、車両10の移動中に、測距センサ21による受信波WRの受信結果に基づいて、推定反射位置Pを順次取得する。また、障害物検知装置20は、取得した推定反射位置Pに基づいて、障害物Bの外形形状を認識する。
 具体的には、図5を参照すると、障害物検知装置20は、車両10が位置VP1に到達した時点で、推定反射位置P1を取得する。その後、障害物検知装置20は、車両10が位置VPNに到達するまで、N個の推定反射位置P、即ち推定反射位置P1、…PNを取得する。Nは2以上の整数である。
 本実施形態における、推定反射位置P1、…PNの取得方法を、推定反射位置P1の取得を代表例として説明する。即ち、N個の推定反射位置Pは、以下に説明する推定反射位置P1の取得方法と同様の方法で取得される。
 障害物検知装置20は、車両10が位置VP1に到達する直前(例えば数百ミリ秒前)の時点において、障害物Bの壁面B0に対向する特定の測距センサ21における受信波WRの受信結果に基づいて、当該測距センサ21と壁面B0との距離を取得する。これを「第一距離」と称する。上記の「特定の測距センサ21」は、図5の例では、図1における第二サイドソナーSS2である。同様に、障害物検知装置20は、その直後の、車両10が位置VP1に到達した時点においても、当該測距センサ21における受信波WRの受信結果に基づいて、当該測距センサ21と壁面B0との距離を取得する。これを「第二距離」と称する。
 第一距離が取得された時刻と、第二距離が取得された時刻との、時間間隔は、十分小さい。故に、その間の、車両10の移動距離も僅かである。このため、第一距離に対応する探査波WSを反射した壁面B0の位置と、第二距離に対応する探査波WSを反射した壁面B0の位置とは、同一と仮定することができる。したがって、障害物検知装置20は、第一距離を取得した時点の当該測距センサ21の位置を中心として半径が第一距離となる第一円と、第二距離を取得した時点の当該測距センサ21の位置を中心として半径が第二距離となる第二円との交点を、推定反射位置P1として取得する。
 さらに、障害物検知装置20は、推定反射位置P1、…PNを用いて形成される延長線ELを取得する。延長線ELは、推定反射位置P1、…PNを用いて、最小自乗法等の周知の近似方法により取得された、曲線又は直線である。即ち、延長線ELは、1個目の推定反射位置P1を含む、N個の推定反射位置Pを用いて形成される、近似曲線又は近似直線である。例えば、N=2である場合、推定反射位置P1を第一推定反射位置と称し、PN即ちP2を第二推定反射位置と称する。この場合、延長線ELは、第一推定反射位置と第二推定反射位置とを結ぶ線分を延長した直線となる。N=2の場合は、延長線ELは、全ての推定反射位置Pを通る。これに対し、N≧3の場合は、延長線ELは、全ての推定反射位置Pを通るとは限らない。
 あるいは、上記のようにして取得した1個の推定反射位置Pに基づいて、延長線ELを取得することも可能である。具体的には、図6に示されているように、障害物検知装置20は、推定反射位置Pとこの推定反射位置Pに対応する測距センサ21とを結ぶ線分と直交し且つ車高方向と直交する、推定反射位置Pを通る直線を、延長線ELとして取得する。また、障害物検知装置20は、この延長線ELに基づいて、障害物Bの外形形状を認識する。即ち、障害物検知装置20は、延長線ELを、障害物Bにおける、車両10に対向する壁面B0を構成する直線として認識する。
 図5及び図6を参照すると、障害物検知装置20は、取得した延長線ELと画像認識結果とに基づいて、障害物Bにおける所望の注目箇所(例えば端部B1等)を検知する。具体的には、障害物検知装置20は、撮像部22により撮像された画像中にて、縦エッジEVが、推定反射位置Pよりも車両進行方向側、且つ車両中心軸VLよりも車幅方向における当該推定反射位置P側にて、延長線EL上に存在するか否かを判定する。縦エッジEVが延長線EL上に存在する場合、障害物検知装置20は、縦エッジEVの車両10に対する相対位置を、障害物Bの端部B1の位置として取得する。
 (動作例)
 以下、本実施形態の構成による具体的な動作例について、フローチャートを用いて説明する。以下の動作例は、図3及び図4に示されているように、車両10が、車両進行方向に対して斜行して立設した壁状の障害物Bに接近する場合に、障害物検知装置20が車両進行方向側の障害物Bの端部B1を検出する場合を示す。なお、図面及び明細書中の以下の説明において、「ステップ」を単に「S」と略記する。また、以下のフローチャートの説明において、制御部26のCPU及び不揮発性RAMを、単に「CPU」及び「不揮発性RAM」と略称する。
 CPUは、所定の起動条件が成立した後、所定時間間隔で、図7に示した画像認識ルーチン及び図8に示した物体検知ルーチンを、繰り返し起動する。
 図7に示した画像認識ルーチンが起動されると、まず、S71にて、CPUは、撮像部22から画像情報を取得する。次に、S72にて、CPUは、画像認識部63による画像認識動作(具体的にはエッジ抽出処理)を実行する。即ち、CPUは、撮像部22により撮像された画像に基づいて、障害物Bにおける縦エッジEV等の特徴形状を抽出する。最後に、S73にて、CPUは、S72による画像認識結果、即ち特徴形状の抽出結果を、不揮発性RAMに格納し、本ルーチンを一旦終了する。
 図8に示した物体検知ルーチンが起動されると、まず、S81にて、CPUは、受信情報、即ち、受信波WRの受信結果に対応する情報を、測距センサ21から取得する。次に、S82にて、CPUは、受信波WRの強度が所定の閾値強度WRthを超えるか否かを判定する。受信波WRの強度が所定の閾値強度WRth以下である場合(即ちS82=NO)、CPUは、S83以降の処理をすべてスキップして、本ルーチンを一旦終了する。よって、受信波WRの強度が所定の閾値強度WRthを超えるものとして(即ちS82=YES)、以下の動作例の説明を続行する。
 受信波WRの強度が所定の閾値強度WRthを超える場合(即ちS82=YES)、CPUは、処理をS83以降に進行させる。S83にて、CPUは、取得した受信情報に基づいて、推定反射位置Pを取得する。図5の例においては、CPUは、車両10の所定時間(例えば1秒)の進行中に、複数の推定反射位置P1、…PNを取得する。図6の例においては、CPUは、1個の推定反射位置Pを取得する。
 次に、S84にて、CPUは、形状認識部61による、障害物Bの外形形状の認識動作を実行する。即ち、CPUは、取得した少なくとも1個の推定反射位置Pに基づいて、延長線ELを取得する。続いて、S85にて、CPUは、不揮発性RAMに格納された情報から、障害物Bにおける縦エッジEVの抽出結果を取得する。その後、CPUは、処理をS86に進行させる。
 S86にて、CPUは、縦エッジEVが、推定反射位置Pよりも車両進行方向側、且つ車両中心軸VLよりも車幅方向における当該推定反射位置P側にて、延長線EL上に存在するかどうかを判定する。縦エッジEVが延長線EL上に存在する場合(即ちS86=YES)、CPUは、処理をS87に進行させる。S87にて、CPUは、車両10に対する縦エッジEVの相対位置(即ち方位及び距離)を取得し、本ルーチンを一旦終了する。一方、延長線EL上に縦エッジEVが存在しなかった場合(即ちS86=NO)、CPUは、S87の処理をスキップして、本ルーチンを一旦終了する。
 (効果)
 図3に示されているように、車両10が、車両進行方向に対して斜行して立設した壁状の障害物Bに、接近しつつ進行する場合がある。
 この場合、測距センサ21に基づく物体形状認識では、障害物Bにおける車両進行方向側の端部B1が探査波WSの照射範囲外に存在する場合、端部B1が認識され難い。故に、測距センサ21に基づく物体形状認識だけでは、この端部B1が、車両10がこのまま進行した場合に車体11と接触する可能性があるのかが判定され難い。また、測距センサ21に基づく物体形状認識だけでは、この端部B1が車体11と接触する可能性がある場合に、接触予定地点までの距離又は接触予定時間までの所要時間の判定が困難となる。
 これに対し、本実施形態においては、障害物検知装置20は、測距センサ21に基づく外形形状の認識結果と、撮像部22による撮像結果に基づく画像認識による特徴形状の認識結果とを統合することで、障害物Bの端部B1の位置を良好に取得(即ち推定)することができる。これにより、上記のような判定が、簡易且つ正確に行われ得る。即ち、本実施形態の構成によれば、自車両と自車両外に存在する障害物Bとの相対位置関係を、可及的正確に取得することが可能となる。
 (変形例)
 本開示は、上記実施形態に限定されるものではない。故に、上記実施形態に対しては、適宜変更が可能である。以下、代表的な変形例について説明する。以下の変形例の説明においては、上記実施形態と異なる部分についてのみ説明する。また、上記実施形態と変形例とにおいて、互いに同一又は均等である部分には、同一符号が付されている。したがって、以下の変形例の説明において、上記実施形態と同一の符号を有する構成要素に関しては、技術的矛盾又は特段の追加説明なき限り、上記実施形態における説明が適宜援用され得る。
 本開示は、上記実施形態にて示された具体的な装置構成に限定されない。即ち、例えば、車両10は、四輪自動車に限定されない。具体的には、車両10は、三輪自動車であってもよいし、貨物トラック等の六輪又は八輪自動車でもよい。また、車両10の種類は、内燃機関のみを備えた自動車であってもよいし、内燃機関を備えない電気自動車又は燃料電池車であってもよいし、ハイブリッド自動車であってもよい。ドアパネル17の数も、特段の限定はない。
 測距センサ21が超音波センサである場合の、測距センサ21の配置及び個数は、上記の具体例に限定されない。即ち、例えば、第三フロントソナーSF3が車幅方向における中央位置に配置される場合、第四フロントソナーSF4は省略される。同様に、第三リアソナーSR3が車幅方向における中央位置に配置される場合、第四リアソナーSR4は省略される。第三サイドソナーSS3及び第四サイドソナーSS4は、省略され得る。
 測距センサ21は、超音波センサに限定されない。即ち、例えば、測距センサ21は、レーザレーダセンサ、又はミリ波レーダセンサであってもよい。
 撮像部22の配置及び個数は、上記の例に限定されない。即ち、例えば、左側カメラCL及び右側カメラCRは、ドアミラー18とは異なる位置に配置されてもよい。あるいは、左側カメラCL及び右側カメラCRは、省略され得る。障害物検知装置20により可能な複数の駐車支援動作のうちの、駐車態様選択動作については、フロントカメラCFのみによっても可能であるし、左側カメラCL及び右側カメラCRのみによっても可能である。
 上記実施形態においては、制御部26は、CPUがROM等からプログラムを読み出して起動する構成であった。しかしながら、本開示は、かかる構成に限定されない。即ち、例えば、制御部26は、上記のような動作を可能に構成されたデジタル回路、例えばゲートアレイ等のASICであってもよい。ASICはAPPLICATION SPECIFIC INTEGRATED CIRCUITの略である。
 本開示は、上記実施形態にて示された具体的な動作例及び処理態様に限定されない。例えば、認識結果の格納場所は、不揮発性RAM以外の記憶媒体(例えばRAM及び/又は磁気記憶媒体)であってもよい。
 受信波WRに対応する距離の算出又は推定は、測距センサ21に搭載されたプロセッサによって行われてもよいし、制御部26によって行われてもよい。推定反射位置Pの取得方法は、上記の具体例に限定されない。例えば、推定反射位置Pは、受信波WRの方位を特定方位と仮定することで、迅速且つ簡易に取得可能となる。この特定方位は、例えば、探査波WSの発信範囲に対応する円錐の中心軸線方向とされ得る。あるいは、例えば、上記の円錐を構成する母線のうち、最も車両進行方向側のものと平行な方向とされ得る。これらの場合、仮定した特定方位と、取得した距離とによって、推定反射位置Pを取得することができる。
 測距センサ21がいわゆるアレイセンサ(例えば超音波アレイセンサ)である場合、障害物検知装置20は、1個の測距センサ21、即ち図3~図6の例では第二サイドソナーSS2の、1回の探査波WSの送信及びこれに伴う受信波WRの受信により、推定反射位置Pを特定することが可能である。この場合、障害物検知装置20は、図5に示された推定反射位置P1、…PNを、より高い分解能で取得することが可能となる。あるいは、障害物検知装置20は、図6に示された方法による、推定反射位置P及びこれに基づく延長線ELの取得を、より短時間で完了することが可能となる。
 上記の具体例においては、障害物検知装置20は、複数の測距センサ21を有している。このため、障害物検知装置20は、複数の測距センサ21の各々における送受信範囲が広い場合、互いに隣接する複数の測距センサ21により受信された、複数の受信波WRの、時間差及び/又は位相差を用いて、推定反射位置Pの方位を算出することが可能である。この場合も、障害物検知装置20は、図5に示された推定反射位置P1、…PNを、より高い分解能で取得することが可能となる。あるいは、障害物検知装置20は、図6に示された方法による延長線ELの取得を、より短時間で完了することが可能となる。
 画像認識部63における処理は、いわゆるSFM処理であってもよい。SFMはStructure From Motionの略である。即ち、画像認識部63は、SFM技術を用いて、障害物Bにおける特徴形状を三次元的に認識するようになっていてもよい。SFM技術については、本願の出願時において、すでに周知である(例えば、特許第5012615号、特許第5714940号、等参照。)。故に、本明細書においては、SFM技術又はSFM処理についての詳細な説明は省略する。
 この場合、画像認識部63は、車両10の移動中に撮像部22により撮像された複数の画像に基づいて、障害物Bの形状を三次元的に認識するように設けられている。また、端部認識部としての統合認識部64は、障害物Bにおける所望の注目箇所の、車両10に対する相対位置を取得するようになっている。即ち、統合認識部64は、形状認識部61による障害物Bの外形形状の認識結果と、画像認識部63による障害物Bの画像認識結果とに基づいて、上記の注目箇所の車両10に対する相対位置を取得するようになっている。
 この変形例に対応する動作例を、図9及び図10に示したフローチャートを用いて説明する。CPUは、所定の起動条件が成立した後、所定時間間隔で、図9に示した画像認識ルーチン及び図10に示した物体検知ルーチンを、繰り返し起動する。
 図9に示した画像認識ルーチンにおいて、S71及びS73の処理は、図7と同様である。よって、これらのステップの説明は省略する。S71の処理の後、CPUは、処理をS92に進行させる。S92にて、CPUは、画像認識部63による画像認識動作、即ちSFM処理を実行する。具体的には、CPUは、車両10の移動中に撮像部22により撮像された複数の画像に基づいて、障害物Bの三次元形状を認識する。その後、CPUは、処理をS73に進行させる。
 図10に示した物体検知ルーチンにおいて、S81~S84の処理は、図8と同様である。よって、これらのステップの説明は省略する。S84の処理の後、CPUは、処理をS105に進行させる。S105にて、CPUは、不揮発性RAMに格納された、SFM技術による画像認識結果に基づき、障害物Bの端部B1の抽出結果を取得する。その後、CPUは、処理をS106に進行させる。
 S106にて、CPUは、障害物Bの端部B1が、推定反射位置Pよりも車両進行方向側、且つ車両中心軸VLよりも車幅方向における当該推定反射位置P側にて、延長線EL上に存在するかどうかを判定する。端部B1が延長線EL上に存在する場合(即ちS106=YES)、CPUは、処理をS107に進行させる。S107にて、CPUは、車両10に対する端部B1の相対位置(即ち方位及び距離)を取得し、本ルーチンを一旦終了する。一方、延長線EL上に端部B1が存在しなかった場合(即ちS106=NO)、CPUは、S107の処理をスキップして、本ルーチンを一旦終了する。
 障害物Bの外形形状の「認識」は、当該外形形状の「取得」又は「推定」と言い換えられ得る。障害物Bにおける特徴形状の「抽出」は、当該特徴形状の「認識」と言い換えられ得る。障害物Bにおける端部B1の、車両10に対する相対位置の「取得」は、当該相対位置の「推定」又は「算出」と言い換えられ得る。延長線ELの「取得」は、「算出」と言い換えられ得る。
 各判定処理における不等号は、等号付きであってもよいし、等号無しであってもよい。即ち、例えば、「閾値を超える」は、「閾値以上」に変更され得る。
 変形例も、上記の例示に限定されない。また、複数の変形例が、互いに組み合わされ得る。更に、上記実施形態の全部又は一部と、変形例の全部又は一部とが、互いに組み合わされ得る。

Claims (7)

  1.  車両(10)に搭載されることで、当該車両外に存在する障害物(B)を検知するように構成された、障害物検知装置(20)であって、
     探査波を前記車両の外側に向けて発信するとともに、前記探査波の前記障害物による反射に起因し前記車両と前記障害物との距離に応じた強度を有する受信波を受信するように設けられた、測距センサ(21)と、
     前記車両の周囲の画像を撮像するように設けられた、撮像部(22)と、
     前記測距センサによる前記受信波の受信結果と、前記撮像部による前記画像の撮像結果とに基づいて、前記障害物を検知するように設けられた、検知処理部(26)と、
     を備え、
     前記検知処理部は、
      前記受信結果に基づいて、前記探査波が既に照射された既照射領域に含まれる位置であって前記受信波を反射した前記障害物上の位置であると推定される推定反射位置を取得し、
      前記推定反射位置に基づいて、前記障害物の外形形状を認識し、
      前記撮像結果に基づいて、前記障害物を画像認識し、
      前記撮像部により撮像された前記画像中に含まれる前記障害物における、前記既照射領域よりも車両進行方向(DT)側の未照射領域に含まれる箇所の、前記車両に対する相対位置を、前記外形形状の認識結果及び前記画像認識の結果に基づいて取得する
     ように構成された、障害物検知装置。
  2.  前記測距センサは、車両中心軸(VL)から車幅方向(DW)における一方側にシフトして配置された、
     請求項1に記載の障害物検知装置。
  3.  前記検知処理部は、前記撮像部により撮像された前記画像中にて、車高方向(DH)に沿ったエッジである縦エッジ(EV)が、前記推定反射位置よりも前記車両進行方向側且つ車両中心軸(VL)よりも車幅方向(DW)における一方側にて、前記外形形状に沿って前記推定反射位置から延びるように形成された延長線(EL)上に存在する場合、前記縦エッジの前記車両に対する相対位置を、前記障害物の端部位置として取得するように構成された、
     請求項1又は2に記載の障害物検知装置。
  4.  前記測距センサは、前記探査波としての超音波を発信及び受信可能に構成された超音波センサであって、車両進行方向(DT)と交差する方向に沿って前記探査波を発信するように設けられた、
     請求項1~3のいずれか1つに記載の障害物検知装置。
  5.  前記検知処理部は、
      前記推定反射位置である第一推定反射位置(P1)を取得し、
      前記第一推定反射位置よりも前記車両進行方向側の前記推定反射位置である第二推定反射位置(PN)を取得し、
      前記撮像部により撮像された前記画像中に含まれる前記障害物における前記箇所が、前記第一推定反射位置と前記第二推定反射位置とを用いて形成される線を前記第一推定反射位置から前記第二推定反射位置に向かう方向に前記第二推定反射位置から延長した延長線(EL)上に存在する場合、前記相対位置を取得する
     ように構成された、
     請求項4に記載の障害物検知装置。
  6.  前記検知処理部は、前記推定反射位置と前記測距センサとを結ぶ線分と直交し且つ前記車高方向と直交する、前記推定反射位置を通る直線に基づいて、前記外形形状を認識するように構成された、
     請求項4に記載の障害物検知装置。
  7.  前記検知処理部は、
     前記推定反射位置を取得する、推定反射位置取得部(61)と、
     前記車両の移動中に前記撮像部により撮像された複数の前記画像に基づいて、前記障害物の形状を三次元的に認識する、画像認識部(63)と、
     前記推定反射位置取得部により取得された前記推定反射位置と、前記画像認識部による画像認識結果とに基づいて、前記障害物の端部位置を取得する、端部認識部(64)と、
     を備えた、
     請求項1~6のいずれか1つに記載の障害物検知装置。
PCT/JP2018/005300 2017-03-28 2018-02-15 障害物検知装置 WO2018179965A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201880020276.2A CN110462706B (zh) 2017-03-28 2018-02-15 障碍物检测装置
DE112018001708.7T DE112018001708T5 (de) 2017-03-28 2018-02-15 Hinderniserfassungsvorrichtung
US16/584,137 US10929695B2 (en) 2017-03-28 2019-09-26 Obstacle detection apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017063622A JP6579144B2 (ja) 2017-03-28 2017-03-28 障害物検知装置
JP2017-063622 2017-03-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/584,137 Continuation US10929695B2 (en) 2017-03-28 2019-09-26 Obstacle detection apparatus

Publications (1)

Publication Number Publication Date
WO2018179965A1 true WO2018179965A1 (ja) 2018-10-04

Family

ID=63675042

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/005300 WO2018179965A1 (ja) 2017-03-28 2018-02-15 障害物検知装置

Country Status (5)

Country Link
US (1) US10929695B2 (ja)
JP (1) JP6579144B2 (ja)
CN (1) CN110462706B (ja)
DE (1) DE112018001708T5 (ja)
WO (1) WO2018179965A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112835051A (zh) * 2021-01-12 2021-05-25 广州主塔智能科技有限公司 一种车载雷达警示***
JP2022123787A (ja) * 2021-02-12 2022-08-24 株式会社アイシン 障害物検出装置、方法及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011053139A (ja) * 2009-09-03 2011-03-17 Toyota Motor Corp 物体検出装置
JP2012088285A (ja) * 2010-10-22 2012-05-10 Toyota Motor Corp 障害物認識装置及び障害物認識方法
JP2014094725A (ja) * 2012-11-12 2014-05-22 Nippon Soken Inc 駐車支援装置

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5012615B1 (ja) 1969-09-05 1975-05-13
JPS51128080A (en) 1975-04-30 1976-11-08 Toyoda Mach Works Ltd Machine tool provided with multi spindle tool changing device
JPH09142236A (ja) * 1995-11-17 1997-06-03 Mitsubishi Electric Corp 車両の周辺監視方法と周辺監視装置及び周辺監視装置の故障判定方法と周辺監視装置の故障判定装置
JP2000123298A (ja) 1998-10-13 2000-04-28 Japan Aviation Electronics Industry Ltd 障害物位置検出装置およびその検出方法
JP3750512B2 (ja) 2000-10-12 2006-03-01 日産自動車株式会社 車両用周辺障害物検出装置
US7263209B2 (en) * 2003-06-13 2007-08-28 Sarnoff Corporation Vehicular vision system
EP1916846B1 (en) * 2005-08-02 2016-09-14 Nissan Motor Company Limited Device and method for monitoring vehicle surroundings
US9002511B1 (en) * 2005-10-21 2015-04-07 Irobot Corporation Methods and systems for obstacle detection using structured light
JP4682816B2 (ja) 2005-11-17 2011-05-11 アイシン精機株式会社 障害物位置検出装置
JP5012615B2 (ja) 2008-03-27 2012-08-29 ソニー株式会社 情報処理装置、および画像処理方法、並びにコンピュータ・プログラム
US8755997B2 (en) * 2008-07-30 2014-06-17 Honeywell International Inc. Laser ranging process for road and obstacle detection in navigating an autonomous vehicle
US10703299B2 (en) * 2010-04-19 2020-07-07 SMR Patents S.à.r.l. Rear view mirror simulation
US9043129B2 (en) * 2010-10-05 2015-05-26 Deere & Company Method for governing a speed of an autonomous vehicle
JP5714940B2 (ja) 2011-03-04 2015-05-07 国立大学法人 熊本大学 移動***置測定装置
CN102685382B (zh) * 2011-03-18 2016-01-20 安尼株式会社 图像处理装置和方法、及移动体防碰撞装置
JP2013016052A (ja) 2011-07-05 2013-01-24 Daihatsu Motor Co Ltd 車両用物体認識装置
JP5831415B2 (ja) 2012-09-18 2015-12-09 アイシン精機株式会社 駐車支援装置
JP2014102165A (ja) * 2012-11-20 2014-06-05 Denso Corp 物標判定装置
JP5918689B2 (ja) 2012-12-14 2016-05-18 株式会社日本自動車部品総合研究所 駐車支援装置
DE102013200409A1 (de) * 2013-01-14 2014-07-17 Robert Bosch Gmbh Verfahren und Vorrichtung zum Überwachen eines Umfelds eines Fahrzeugs und Verfahren zum Durchführen einer Notbremsung
JP6011489B2 (ja) * 2013-08-26 2016-10-19 トヨタ自動車株式会社 車載制御装置
CN106537180B (zh) * 2014-07-25 2020-01-21 罗伯特·博世有限公司 用于用针对行人的主动制动的摄影机输入缓解雷达传感器限制的方法
JP2017063622A (ja) 2015-09-28 2017-04-06 三菱マヒンドラ農機株式会社 移植機
US9946259B2 (en) * 2015-12-18 2018-04-17 Raytheon Company Negative obstacle detector
CN107176161B (zh) * 2016-03-10 2021-11-23 松下电器(美国)知识产权公司 识别结果提示装置、识别结果提示方法以及自主移动体
JP6729220B2 (ja) * 2016-09-08 2020-07-22 トヨタ自動車株式会社 車両用運転支援装置
WO2018098161A1 (en) * 2016-11-22 2018-05-31 Dispatch, Inc. Methods for autonomously navigating across uncontrolled and controlled intersections
JP6828429B2 (ja) * 2016-12-27 2021-02-10 株式会社デンソー 車両用衝突回避支援装置および車両の衝突回避支援方法
KR102007304B1 (ko) * 2017-07-12 2019-08-05 엘지전자 주식회사 차량 주행 시스템 및 차량
US10933798B2 (en) * 2017-09-22 2021-03-02 Magna Electronics Inc. Vehicle lighting control system with fog detection
KR101974121B1 (ko) * 2018-08-20 2019-08-23 콘티넨탈 오토모티브 시스템 주식회사 차량용 트렁크 덮개의 개방방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011053139A (ja) * 2009-09-03 2011-03-17 Toyota Motor Corp 物体検出装置
JP2012088285A (ja) * 2010-10-22 2012-05-10 Toyota Motor Corp 障害物認識装置及び障害物認識方法
JP2014094725A (ja) * 2012-11-12 2014-05-22 Nippon Soken Inc 駐車支援装置

Also Published As

Publication number Publication date
JP2018165945A (ja) 2018-10-25
JP6579144B2 (ja) 2019-09-25
US20200019797A1 (en) 2020-01-16
DE112018001708T5 (de) 2019-12-19
CN110462706B (zh) 2021-09-17
CN110462706A (zh) 2019-11-15
US10929695B2 (en) 2021-02-23

Similar Documents

Publication Publication Date Title
CN110573905B (zh) 障碍物检知装置
JP6942712B2 (ja) コンテキスト及び深さ順序を用いる、部分的に遮られた物体の検出
US9809223B2 (en) Driving assistant for vehicles
US11052907B2 (en) Parking control device and parking control method
WO2018079252A1 (ja) 物体検知装置
US10885356B2 (en) Parking assisting apparatus and control unit
WO2018207782A1 (ja) 駐車空間検出装置
WO2015098344A1 (ja) 鉱山用作業機械
CN112771591B (zh) 用于评价运输工具的环境中的对象对运输工具的行驶机动动作的影响的方法
CN113799796A (zh) 车载传感器***
CN112776797A (zh) 泊出原始车位创建方法、***、车辆和存储介质
WO2018179965A1 (ja) 障害物検知装置
JP3763733B2 (ja) 駐車支援装置及びその制御方法
WO2021172535A1 (ja) 物体検知装置
CN109195849B (zh) 摄像装置
JP4872517B2 (ja) 障害物認識装置
WO2019151156A1 (ja) 物体検知装置および駐車支援装置
WO2020170666A1 (ja) 情報処理装置および情報処理方法
JP7135579B2 (ja) 物体検知装置
WO2021075377A1 (ja) 物体検知装置、物体検知方法、および物体検知プログラム
US20230025940A1 (en) Apparatus for estimating obstacle shape and method thereof
JP7334572B2 (ja) 物体検知装置および物体検知プログラム
JP7318377B2 (ja) 物体検知装置
JP2008242795A (ja) 障害物検知装置
JP2021195054A (ja) 駐車制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18775812

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 18775812

Country of ref document: EP

Kind code of ref document: A1