WO2023181947A1 - 物体検出装置および物体検出方法 - Google Patents

物体検出装置および物体検出方法 Download PDF

Info

Publication number
WO2023181947A1
WO2023181947A1 PCT/JP2023/008855 JP2023008855W WO2023181947A1 WO 2023181947 A1 WO2023181947 A1 WO 2023181947A1 JP 2023008855 W JP2023008855 W JP 2023008855W WO 2023181947 A1 WO2023181947 A1 WO 2023181947A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
reception signal
detection device
object detection
light reception
Prior art date
Application number
PCT/JP2023/008855
Other languages
English (en)
French (fr)
Inventor
啓子 秋山
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2023028101A external-priority patent/JP2023143755A/ja
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2023181947A1 publication Critical patent/WO2023181947A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating

Definitions

  • the present disclosure relates to an object detection device and an object detection method.
  • the distance to the object to be measured can be calculated.
  • Various techniques for measuring distance have been proposed. In the distance measuring device described in the pamphlet of International Publication No. 2017/042993A1, two types of threshold values are set, and when the reflected light is received, the intensity of the reflected light (signal strength) to improve the accuracy of distance measurement.
  • the distance measuring device described in International Publication No. 2017/042993A1 pamphlet when detecting a target object, if the reflected light from the target object is strong, there is almost no difference in the rise time difference. Therefore, it is difficult to detect differences in the intensity of reflected light (signal intensity). Therefore, the distance measuring device described in this pamphlet has a problem in that even if the distance to the object is known, it is difficult to detect differences in the intensity of reflected light (signal intensity). This problem is noticeable when the signal intensity obtained from the reflected light is in the saturation region of the light receiving element that receives the reflected light.
  • the present disclosure has been made to solve at least part of the above-mentioned problems, and can be realized as the following forms.
  • an object detection device includes a light emitting section that emits irradiation light toward a predetermined irradiation range, a light receiving section that receives reflected light corresponding to the irradiation light, and a reception of the reflected light from the emission of the irradiation light. a distance calculation unit that calculates the distance to the object that reflected the irradiation light using the time up to that point; and a distance calculation unit that calculates the distance to the object that reflected the irradiation light, and a distance calculation unit that determines whether a light reception signal corresponding to the reflected light output from the light reception unit is saturated.
  • a saturation determination section a pulse width detection section that detects the pulse width of the light reception signal at a predetermined threshold value, a falling slope detection section that detects the slope of the fall of the light reception signal, and a reflection intensity and reflection of the object.
  • a reflection characteristic acquisition section that acquires a reflection characteristic that includes at least one of the pulse width and the falling slope when the received light signal is saturated. The reflection characteristics are obtained using one of the two. According to this type of object detection device, it is possible to detect a difference in the intensity of reflected light (signal intensity) even when the intensity of the light reception signal is in the saturation region of the light receiving section.
  • the present disclosure can also be implemented in various forms.
  • the object detection device it can be implemented in the form of a distance measuring method, a correction device for the object detection device, a correction method, etc.
  • FIG. 1 is an explanatory diagram showing a vehicle equipped with an object detection device and an irradiation range of irradiation light in an embodiment
  • FIG. 2 is a block diagram showing the schematic configuration of the object detection device
  • FIG. 3 is an explanatory diagram showing a received light signal when the received light signal is saturated
  • FIG. 4 is an explanatory diagram showing the relationship between the reflective surface angle and the received light signal
  • FIG. 5 is a flowchart of object detection processing executed by the CPU
  • FIG. 6 is a detailed explanatory diagram of extraction of reflection points and proximity points executed by the CPU
  • FIG. 1 is an explanatory diagram showing a vehicle equipped with an object detection device and an irradiation range of irradiation light in an embodiment
  • FIG. 2 is a block diagram showing the schematic configuration of the object detection device
  • FIG. 3 is an explanatory diagram showing a received light signal when the received light signal is saturated
  • FIG. 4 is an explanatory diagram showing the relationship between the reflective surface angle and the received light signal
  • FIG. 7 is an explanatory diagram showing reflection points and adjacent reflection points
  • FIG. 8 is a detailed explanatory diagram of the calculation of the reflective surface angle executed by the CPU
  • FIG. 9 is an explanatory diagram showing the relationship between left and right vectors, up and down vectors, normal vectors, and sensor vectors
  • FIG. 10 is a flowchart for calculating the reflective surface angle from the vertical vector and the sensor vector
  • FIG. 11 is a flowchart for determining whether three points are lined up on a straight line
  • FIG. 12 is an explanatory diagram showing the positional relationship of three points
  • FIG. 13 is an explanatory diagram showing a case where the object is a white line drawn on the road
  • FIG. 14 is a detailed explanatory diagram of the averaging process executed by the CPU
  • FIG. 15 is an explanatory diagram illustrating the signal rate
  • FIG. 16 is an explanatory diagram showing signals of a reflection point and nearby points around it
  • FIG. 17 is a detailed explanatory diagram of background light correction executed by the CPU
  • FIG. 18 is an explanatory diagram illustrating the background light rate
  • FIG. 19 is an explanatory diagram showing correction of the pulse width of the light reception signal based on the background light rate
  • FIG. 20 is an explanatory diagram showing correction of the falling slope of the light reception signal based on the background light rate
  • FIG. 21 is an explanatory diagram showing correction of the signal rate of the light reception signal based on the background light rate
  • FIG. 22 is a detailed explanatory diagram of reflection characteristic acquisition executed by the CPU
  • FIG. 22 is a detailed explanatory diagram of reflection characteristic acquisition executed by the CPU
  • FIG. 23 is an explanatory diagram showing the relationship between the pulse width of the light reception signal and the logarithm of the signal strength of the light reception signal
  • FIG. 24 is an explanatory diagram showing the relationship between the falling slope of the light reception signal and the logarithm of the signal strength of the light reception signal
  • FIG. 25 is an explanatory diagram showing the relationship between the signal rate of the received light signal and the logarithm of the signal strength of the received light signal
  • FIG. 26 is an explanatory diagram showing the relationship between the reflective surface angle and the correction coefficient
  • FIG. 27 is a detailed explanatory diagram of bush correction performed by the CPU
  • FIG. 28 is an explanatory diagram showing the characteristics of bushes
  • FIG. 29 is an explanatory diagram showing a case where the object is a white line on the road surface
  • FIG. 30 is an explanatory diagram illustrating in detail the bush determination performed by the CPU
  • FIG. 31 is an explanatory diagram showing another method in which the falling slope detection unit determines the falling slope of the received light signal
  • FIG. 32 is an explanatory diagram showing another method in which the falling slope detection unit determines the falling slope of the received light signal
  • FIG. 33 is an explanatory diagram showing a method for ensuring continuity of the reflection characteristics of a received light signal when switching between when the received light signal is saturated and when it is not saturated
  • FIG. 34 is an explanatory diagram showing the signal strength of reflected light when the reflectance of an object is high
  • FIG. 35 is a flowchart illustrating another embodiment of identifying a reflector
  • FIG. 36 is an explanatory diagram showing an example of an image of the reflectance of a reflector
  • FIG. 37 is a flowchart showing yet another embodiment of identifying a reflector
  • FIG. 38 is a block diagram showing a schematic configuration of an object detection device mounted on a vehicle according to the second embodiment
  • FIG. 39 is a flowchart showing the received light signal correction process in the second embodiment
  • FIG. 40 is an explanatory diagram showing an example of extracting road shoulders and white lines
  • FIG. 41 is an explanatory diagram showing the angle that the irradiation light makes with the normal line of the object
  • FIG. 42 is a flowchart showing the process of acquiring the reflection characteristics of a target object.
  • the object detection device 10 of this embodiment is mounted on a vehicle 100 and measures the distance to objects existing around the front of the vehicle 100, such as other vehicles, pedestrians, buildings, etc. and detect objects.
  • the object detection device 10 is configured by LiDAR (Light Detection and Ranging).
  • the object detection device 10 scans and irradiates a predetermined irradiation range S with irradiation light Lz, which is pulsed light, and receives reflected light corresponding to the irradiation light Lz. For example, if there is an object in the irradiation range S, the irradiation light Lz hits the object, and reflected light bounces off the object.
  • the object detection device 10 receives this reflected light and detects the distance to the object.
  • the object detection device 10 may receive this reflected light and detect what the object is.
  • the emission center position of the irradiation light Lz is the origin
  • the longitudinal direction of the vehicle 100 is the Y axis
  • the width direction of the vehicle 100 passing through the origin is the X axis
  • the vertical direction passing through the origin is the Z axis.
  • the front of the vehicle 100 is the +Y direction
  • the rear of the vehicle 100 is the -Y direction
  • the right direction of the vehicle 100 is the +X direction
  • the left direction of the vehicle 100 is the -X direction
  • the vertically upward direction is the +Z direction
  • the vertically downward direction is the -Y direction.
  • the irradiation light Lz is irradiated by one-dimensional scanning in a direction parallel to the XY plane.
  • the irradiation light Lz is irradiated while scanning from left to right toward the front of the vehicle 100. Since this irradiation light Lz is pulsed light, the location irradiated by each pulse is shown as each grid of thin solid lines.
  • the irradiation light Lz is irradiated at an angle corresponding to the resolution ⁇ of the object detection device 10.
  • the resolution ⁇ means the angle that the laser irradiation axis makes with the Y axis in the YZ plane.
  • the object detection device 10 measures the time from emitting the irradiation light Lz to receiving the reflected light, that is, the time of flight TOF of the light, and calculates the distance to the object from the time of flight TOF. By doing this, the object is detected as a group of ranging points.
  • the distance measuring point means a point indicating a position where at least a part of the object specified by the reflected light may exist within a distance measuring range of the object detection device 10. Further, the distance measurement point group means a set of distance measurement points in a predetermined period.
  • the object detection device 10 detects an object using the shape specified by the three-dimensional coordinates of the detected distance measurement point group and the reflection characteristics of the distance measurement point group.
  • the object detection device 10 includes a CPU 20, a storage device 50, an input/output interface 60, a light emitting section 70, and a light receiving section 80.
  • the CPU 20, the storage device 50, and the input/output interface 60 are connected via a bus 90 so as to be able to communicate in both directions.
  • the storage device 50 includes solid state storage devices as well as semiconductor storage devices such as ROM, RAM, and EEPROM.
  • a light emitting section 70 and a light receiving section 80 are connected to the input/output interface 60.
  • the CPU 20 controls the light emission control section 22, distance calculation section 24, saturation determination section 26, pulse width detection section 28, falling slope detection section 30, and reflection It functions as a characteristic acquisition section 32, a background light correction section 34, a reflective surface angle acquisition section 36, a bush determination section 38, and an object detection section 40.
  • a detection section including at least one of the pulse width detection section 28 and the falling slope detection section 30 is also referred to as the "pulse detection section 27."
  • the determination unit 38 and the object detection unit 40 may be configured as separate devices that operate according to instructions from the CPU 20.
  • the light emission control section 22 transmits a light emission signal to the light emission section 70 at regular intervals via the input/output interface 60.
  • the light emitting section 70 includes a light emitting element 72 and a scanner 74. When the light emitting unit 70 receives the light emitting signal, the light emitting element 72 emits irradiation light Lz.
  • the light emitting element 72 is composed of, for example, an infrared laser diode, and emits infrared laser light as the irradiation light Lz.
  • the scanner 74 is composed of, for example, a mirror or a DMD (Digital Mirror Device), and scans the irradiation light emitted from the light emitting element 72 at regular intervals from the -x direction to the +x direction and from the -z direction to the +z direction. .
  • the number of light emitting elements 42 may be one or more. When a plurality of light emitting elements 42 are provided along the Z-axis direction, for example, scanning from the -z direction to the +z direction can be omitted.
  • the light receiving section 80 includes a plurality of light receiving elements 82.
  • the light receiving element 82 is composed of m ⁇ n SPADs (Single Photon Avalanche Diodes) arranged two-dimensionally in the xz direction.
  • the light receiving element 82 constitutes one pixel with p ⁇ q SPADs arranged in a two-dimensional p ⁇ q array.
  • p and q are each integers of 2 or more. Therefore, the light receiving section 80 has (m/p) ⁇ (n/q) pixels. Note that in the m ⁇ n SPAD described above, m is preferably an integer multiple of p, and n is an integer multiple of q.
  • the CPU 10 determines from which direction the reflected light Rz returns, that is, the direction of the reflection point (range-finding point) of the irradiated light Lz on the object 200, and the direction of the three-dimensional polar coordinate system. Know the declination and zenith angle. Note that instead of using the coordinates of the light receiving element 82, the CPU 10 uses the angle of the scanner 74 to determine from which direction the reflected light Rz returns, that is, the reflection point (distance measurement point) of the irradiated light Lz on the object 200. You may also obtain the direction of The light receiving section 80 can be made smaller.
  • the distance calculation unit 24 uses the time TOF from when the light emitting element 72 emits the irradiation light Lz until the irradiation light Lz hits the object 200 and the reflected light Rz is received by the light receiving element 82 of the light receiving unit 80.
  • a distance D from the object detection device 10 to the reflection point of the object 200 is calculated.
  • the speed of light is c
  • the distance D from the object detection device 10 to the reflection point of the object 200 is TOF/(2 ⁇ c). Since the CPU 20 knows the distance from the flight time TOF to the object 200 (radius in the three-dimensional polar coordinate system), the CPU 20 uses the distance (radius) and direction (declination and zenith angle) to the object 200 to determine the reflection point.
  • the three-dimensional coordinates of (the distance measurement point) can be calculated.
  • the saturation determining unit 26 determines whether the light receiving signal generated by the light receiving element 82 receiving light is saturated.
  • the saturation determination unit 26 determines whether the light receiving signal generated by the light receiving element 82 of one pixel is equal to or greater than the maximum value (hereinafter referred to as "saturation intensity") of the light receiving signal that the light receiving element 82 of one pixel can generate. It is determined to be saturated if As described above, the light receiving element 82 of one pixel is formed of 3 ⁇ 6 SPADs, and the reflected light Rz for r cycles of pulses of the irradiated light Lz (r is an integer of 2 or more) has a maximum of p ⁇ q ⁇ r photons can be detected.
  • the saturation determination unit 26 determines that the light reception signal is saturated in that pixel when it detects s% or more, that is, p ⁇ q ⁇ r ⁇ s/100 or more photons in the reflected light Rz for r cycles. judge.
  • s is a predetermined number smaller than 100, for example 95.
  • the pulse width detection unit 28 detects the time from when the light reception signal rises and reaches a predetermined magnitude until the light reception signal falls and reaches a predetermined magnitude as a pulse width.
  • the falling slope detecting section 30 detects the slope of the light receiving signal when the light receiving signal falls.
  • FIG. 3 is an explanatory diagram showing the light reception signal when the light reception signal is saturated.
  • the position where the light reception signal rises and reaches saturation intensity is called a peak point PP.
  • the pulse width detection unit 28 determines the length of the period during which the light reception signal is equal to or greater than a predetermined threshold value TH as a pulse width. Note that the starting point of the pulse width is called a start point SP, and the ending point of the pulse width is called an end point EP.
  • the falling slope is the slope at which the light reception signal falls. However, since it is difficult to obtain the slope when the light reception signal falls, the falling slope detection section 30 uses the time change rate as the slope of the fall of the light reception signal.
  • the time rate of change is a value obtained by dividing the difference between the saturation intensity of the light reception signal and the threshold TH by the time difference from the timing at which the light reception signal reaches the peak point PP to the timing at which the light reception signal reaches the end point EP.
  • the reflection characteristic acquisition unit 32 in FIG. 2 acquires the reflection characteristics of the object 200.
  • the reflection characteristic of the object 200 means the reflection intensity or reflectance of the object 200.
  • the reflection intensity of the object 200 is the absolute intensity of the reflected light reflected by the object 200, and increases as the distance from the light emitting unit 70 to the object 200 is short.
  • the reflectance is a value obtained by dividing the intensity of the reflected light Rz by the intensity of the irradiated light, and does not depend on the distance from the light emitting unit 70 to the object 200.
  • the background light correction unit 34 performs correction to remove the influence of background light on the reflected light Rz of the object 200.
  • the reflective surface angle acquisition unit 36 acquires the angle ⁇ (hereinafter referred to as “reflective surface angle ⁇ ”) formed by the normal line of the object 200 at the distance measurement point of the object 200 and the reflected light Rz.
  • the reason why the reflective surface angle acquisition unit 36 acquires the reflective surface angle is to acquire the net reflected light intensity of the object 200 because the intensity of the reflected light Rz varies depending on the reflective surface angle.
  • FIG. 4 is an explanatory diagram showing the relationship between the reflective surface angle ⁇ and the received light signal.
  • the reflection surface angle which is the angle formed by the vector c, which is the normal line to the reflection point of the object 200
  • the sensor vector d which is the vector directed from the light receiving unit 80 to the reflection point
  • the reflection surface angle which is the angle formed by the vector c, which is the normal line to the reflection point of the object 200
  • the sensor vector d which is the vector directed from the light receiving unit 80 to the reflection point
  • the CPU 20 acquires the reflective surface angle ⁇ using the reflective surface angle acquisition unit 36, and uses the reflective surface angle ⁇ to correct the light reception signal. This correction will be described later.
  • the bush determination unit 38 in FIG. 2 uses the reflection point on the object 200 and the distance to adjacent reflection points around the reflection point and variations in reflection characteristics to determine whether or not the measurement point of the object 200 is included in the bush. do.
  • the object detection unit 40 uses the reflection characteristics of the object 200 and the distance to the object 200 to detect what the object 200 is, for example, whether the object 200 is a white line on a road. Note that although the reflection characteristics of the object 200 are acquired, if there is no need to detect what the object 200 is, the object detection unit 40 can be omitted.
  • FIG. 5 is a flowchart of processing executed by the CPU 20.
  • the CPU 20 When the vehicle 100 is started, the CPU 20 repeatedly executes the process shown in FIG. 5 .
  • step S100 the CPU 20 extracts a reflection point RP and nearby points NP around the reflection point RP.
  • step S100 the CPU 20 calculates the reflective surface angle of the object 200.
  • step S300 the CPU 20 averages the received light signals.
  • step S400 the CPU 20 performs background light correction to remove the influence of background light from the light reception signal.
  • step S500 CPU 20 acquires the reflection characteristics of object 200.
  • the CPU 20 determines whether the measurement point of the object 200 is included in the bushes, that is, whether the object 200 is a bush.
  • step S700 the CPU 20 detects what the object 200 is. If the CPU 20 does not detect what the object 200 is, the CPU 20 does not need to execute the process of step S700. Details of each of the above steps will be described later.
  • FIG. 6 is a detailed explanatory diagram of step S100 executed by the CPU 20.
  • the CPU 20 extracts a light reception signal of the reflected light Rz reflected from the reflection point RP of the object 200.
  • the CPU 20 extracts the light reception signal of the reflected light Rz reflected from the adjacent reflection points ARP around the reflection point RP.
  • the adjacent reflection points ARP are points around the reflection point RP.
  • the reflected light from the adjacent reflection point ARP is detected by pixels on the light receiving section 80 surrounding the pixel that detects the reflected light from the reflection point RP.
  • the range of adjacent reflection points ARP is a 3 x 3 pixel range centered on the reflection point RP, but it may also be a 5 x 5 pixel range centered on the reflection point RP. .
  • step S130 the CPU 20 causes the distance calculation unit 24 to calculate the distance to the reflection point RP.
  • step S140 the CPU 20 causes the distance calculation unit 24 to calculate the distance to the adjacent reflection point ARP.
  • step S150 the CPU 20 extracts an adjacent reflection point ARP that is less than or equal to a certain distance difference from the distance to the reflection point RP as a nearby point NP, and stores it in the storage device 50. It can be considered that the reflection point RP and the adjacent reflection point ARP whose distance to the reflection point RP is less than or equal to a certain distance difference exist in the same object 200 .
  • FIG. 8 is a detailed explanatory diagram of step S200 executed by the CPU 20.
  • the CPU 20 uses the reflective surface angle acquisition unit 36 to obtain a left-right vector a, which is a direction vector in the left-right direction.
  • the left-right vector a is a vector that connects adjacent points NP that sandwich the reflection point RP from the left and right sides.
  • the CPU 20 can calculate the left and right vector a using the distance to each of the nearby points NP and the coordinates of the light receiving element 82 corresponding to each of the nearby points NP.
  • the CPU 20 uses the reflective surface angle acquisition unit 36 to obtain a vertical vector b, which is a directional vector in the vertical direction. As shown in FIG.
  • the vertical vector b is a vector connecting adjacent points NP that sandwich the reflection point RP from above and below.
  • the CPU 20 can calculate the vertical vector b using the distance to each proximity point NP and the coordinates of the light receiving element 82 corresponding to each proximity point NP.
  • step S215 the CPU 20 uses the reflection surface angle acquisition unit 36 to calculate the normal vector c at the reflection point RP from the left and right vectors a and the up and down vectors b. More specifically, the CPU 20 calculates the cross product of the horizontal vector a and the vertical vector a, and sets it as the normal vector c at the reflection point of the object 200. That is, the normal vector c at the reflection point of the object 200 is a ⁇ b.
  • step S220 the CPU 20 uses the reflective surface angle acquisition unit 36 to calculate the angle ⁇ formed by the normal vector c and the sensor vector d, and sets the angle ⁇ as the reflective surface angle.
  • the CPU 20 found the left-right vector a and the up-down vector b, found the normal vector c from the left-right vector a and the up-down vector b, and found the reflective surface angle ⁇ from the normal vector c and the sensor vector d.
  • the vector for determining the normal vector c does not have to be the left and right vector a and the top and bottom vector b. For example, it may be two vectors diagonal to the left-right direction and the up-down direction. Alternatively, it may be simply calculated using one of the left and right vectors a and the top and bottom vectors b.
  • the CPU 20 may calculate the reflective surface angle ⁇ using the vertical vector b and the sensor vector d.
  • step S230 the CPU 20 selects three points in the vertical direction. These three points may be the reflection point RP and two nearby points NP that sandwich the reflection point RP from above and below.
  • step S240 the CPU 20 determines whether the selected three points are lined up on a straight line. If the three selected points are lined up on a straight line, the CPU 20 moves the process to step S260.
  • the CPU 20 determines whether the three selected points are lined up on a straight line.
  • the CPU 20 determines the order in which the three points P1, P2, and P3 are arranged.
  • the CPU 20 determines the arrangement order of the three points P1, P2, and P3 so that the upper side is the point P1 and the lower side is the point P3, centering on the point P2.
  • Point P2 may be, for example, a reflection point RP, and points P1 and P3 may be proximal points NP.
  • step S244 in FIG. 11 the CPU 20 controls the process from when the light emitting unit 70 emits the irradiation light Lz until the irradiation light Lz is reflected at points P1, P2, and P3 and the light receiving unit 80 detects the reflected light Rz. Get the time. Then, based on this time, distances Dist1, Dist2, and Dist3 are calculated using the distance calculation unit 24.
  • step S246 the CPU 20 uses the distances Dist1, Dist2, Dist3 from the light receiving section 80 to the three points P1, P2, P3 and the coordinates of the light receiving element 82 corresponding to the points P1, P2, P3 to , P2, and P3 are calculated. Then, the mutual distances D12, D23, and D31 between the three points P1, P2, and P3 are calculated. Note that the distance D31 is larger than the distances D12 and D23 from the positional relationship between the points P1, P2, and P3.
  • step S248 the CPU 20 determines whether the largest interval D31 is larger than 0.8 times the sum of the remaining two intervals D12 and D23. If the interval D31 is larger than 0.8 times the sum of the intervals D12 and D23, the three points P1, P2, and P3 can be considered to be on a straight line, so the CPU 20 shifts the process to step S250. do. Note that if the triangle formed by the three points P1, P2, and P3 is considered, the distance D31 will never be larger than the sum of the distances D12 and D23. On the other hand, if the distance D31 is not larger than 0.8 times the sum of the distances D12 and D23, it is unlikely that the three points P1, P2, and P3 are on a straight line, so the process moves to step S256. .
  • step S250 the CPU 20 determines whether the difference between distance Dist1 and distance Dist2 is less than or equal to a predetermined threshold value Dth, and whether the difference between distance Dist2 and distance Dist3 is less than or equal to a predetermined threshold value Dth. judge. If the difference between the distance Dist1 and the distance Dist2 is less than or equal to the predetermined threshold value Dth, and if the difference between the distance Dist2 and the distance Dist3 is less than or equal to the predetermined threshold value Dth, the CPU 20 executes the process in step S252. to move to.
  • step S256 This is to determine whether points P1, P2, and P3 are not too far apart from each other.
  • step S252 the CPU 20 determines that the distance D12 between the points P1 and P2 is greater than 0.02 times the distance Dist2 from the light receiving section 80 to the point P2, and the distance D23 between the points P2 and P3 is It is determined whether the distance from Dist2 to point P2 is greater than 0.02 times. If the distance D12 is larger than 0.02 times the distance Dist2 and the distance D23 is larger than 0.02 times the distance Dist2, the CPU 20 moves the process to step S254. On the other hand, if the distance D12 is less than or equal to 0.02 times the distance Dist2, or if the distance D23 is less than or equal to 0.02 times the distance Dist2, the CPU 20 moves the process to step S256. This is because if the points P1, P2, and P3 are too close together, the accuracy in calculating the reflective surface angle ⁇ will be low, and it will not be possible to establish that the points P1, P2, and P3 are on a straight line.
  • step S254 since the determinations in steps S248, S250, and S252 are all "Yes," the CPU 20 determines that the three points P1, P2, and P3 exist on a straight line.
  • step S256 the CPU 20 determines that the three points P1, P2, and P3 are not on a straight line.
  • FIG. 13 shows a case where the object 200 is a white line drawn on a road.
  • the object 200 is a white line drawn on a road.
  • measurements are made such that point P1 is above point P2, and point P3 is below point P2, with point P2 as the center.
  • the distance Dist1 from the light receiving section 80 to the point P1 is the largest, and the distances decrease in the order of the distance Dist2 from the light receiving section 80 to the point P2, and the distance Dist3 from the light receiving section 80 to the point P3.
  • FIG. 14 is a detailed explanatory diagram of step S300 executed by the CPU 20.
  • the CPU 20 extracts a reflection point RP and a nearby reflection point.
  • the CPU 20 may further extract only the nearby points NP where the difference between the signal rate at the reflection point RP and the signal rate at the nearby point NP is equal to or less than a threshold value.
  • FIG. 15 is an explanatory diagram illustrating the signal rate.
  • the signal rate is the response rate of the SPAD to the effective range of the SPAD excluding the influence of background light.
  • the signal rate is calculated as the value obtained by subtracting the background light intensity from the signal intensity (peak intensity) of the received light signal, divided by the value obtained by subtracting the background light intensity from the maximum signal strength (saturation intensity) of the received light signal. be done. That is, the signal rate means the intensity ratio between the difference between the intensity of the light-receiving signal and the intensity of the background light, and the difference between the saturation intensity of the light-receiving signal and the intensity of the background light.
  • step S320 of FIG. 14 the CPU 20 averages the intensities of the received light signals. Specifically, when the light reception signal is not saturated, the CPU 20 averages the signal rate, and when the light reception signal is saturated, the CPU 20 averages the pulse width of the light reception signal and the falling slope of the light reception signal. become
  • Figure 16 shows the signal P (h, v) at the reflection point (coordinates (h, v) and the coordinates (h-1, v-1) of the neighboring points around it (h+1, v+1), where the coordinates of the reflection point are (excluding h, v)) from P(h-1, v-1) to P(h+1, v+1).
  • the CPU 20 calculates the average value Pave using the following formula. In the following equations (1) to (3), 9 is the sum of the number of reflection points and adjacent points.
  • the CPU 20 may calculate the weighted average Pave2 using the following formula.
  • Equation (2) w(i, j) is a weighting coefficient and satisfies equation (3) below.
  • FIG. 17 is a detailed explanatory diagram of step S400 executed by the CPU 20.
  • the CPU 20 uses the background light correction unit 34 to obtain a background light rate.
  • FIG. 18 is an explanatory diagram illustrating the background light rate.
  • the background light rate is the background light intensity normalized to a range of 0-1, and is the value obtained by dividing the background light intensity by the maximum value (saturation intensity) of the signal intensity.
  • step S420 of FIG. 17 the CPU 20 uses the background light rate to correct the input parameters (pulse width, falling slope, signal rate of the light reception signal). Specifically, as described below, the CPU 20 removes the influence of background light on the pulse width and falling slope when the light reception signal is saturated, and removes the influence of background light on the pulse width and falling slope when the light reception signal is not saturated. In order to eliminate the influence of background light on the intensity of the received light signal.
  • FIG. 19 is an explanatory diagram showing correction of the pulse width of the light reception signal based on the background light rate.
  • the pulse width coefficient in FIG. 18 indicates how many times the pulse width of the measured light reception signal is increased relative to the background light rate. In the example shown in FIG. 19, when the background light rate is 0.5, the CPU 20 multiplies the pulse width of the measured light reception signal by 0.9.
  • FIG. 20 is an explanatory diagram showing correction of the falling slope of the light reception signal based on the background light rate.
  • the falling slope coefficient in FIG. 20 indicates how many times the falling slope of the measured light reception signal is to be increased with respect to the background light rate.
  • the CPU 20 multiplies the falling slope of the measured light reception signal by 0.6.
  • FIG. 21 is an explanatory diagram showing correction of the signal rate of the light reception signal based on the background light rate.
  • the signal rate coefficient in FIG. 21 indicates how many times the signal rate of the measured light reception signal is to be increased relative to the background light rate. In the example shown in FIG. 21, when the background light rate is 0.5, the CPU 20 multiplies the signal rate of the measured light reception signal by 0.9.
  • FIG. 22 is a detailed explanatory diagram of step S500 executed by the CPU 20.
  • the CPU 20 determines whether the light reception signal is saturated. As described above, the CPU 20 determines whether the received light signal exceeds the saturation intensity, more specifically, if the received light signal exceeds the saturation intensity, more specifically, if photons of s% or more of p ⁇ q are detected in the reflected light Rz. It is determined that there is. Note that the light reception signals for several cycles may be integrated. If the received light signal exceeds the saturation intensity, the CPU 20 moves the process to step S520. On the other hand, if the received light signal is below the saturation intensity, the CPU 20 moves the process to step S530.
  • step S520 the CPU 20 calculates the reflectance RS at saturation using at least one of the pulse width and falling slope of the light reception signal.
  • the CPU 20 obtains the logarithm of the signal strength of the light reception signal from the pulse width of the light reception signal. The relationship between the pulse width of the light-receiving signal and the signal strength of the light-receiving signal is determined in advance through experiments.
  • the CPU 20 calculates the signal strength of the light reception signal from the logarithm of the signal strength of the light reception signal.
  • the CPU 20 calculates the reflectance of the object 200 using the signal strength of the received light signal and the distance Dist to the object 200.
  • the reflectance of the object 200 is proportional to the signal strength of the received light signal, and is proportional to the square of the distance Dist to the object 200. Note that as the distance Dist to the object 200 increases, the signal strength of the received light signal decreases.
  • the CPU 20 obtains the logarithm of the signal strength of the light reception signal from the falling slope of the light reception signal.
  • the relationship between the falling slope of the light reception signal and the signal strength of the light reception signal is determined in advance through experiments.
  • the CPU 20 calculates the signal strength of the light reception signal from the logarithm of the signal strength of the light reception signal.
  • the CPU 20 calculates the reflectance of the object 200 using the signal strength of the received light signal and the distance Dist to the object 200.
  • the CPU 20 obtains the logarithm of the signal strength of the light reception signal from the pulse width of the light reception signal. Further, in FIG. 24, the logarithm of the signal strength of the light reception signal is obtained from the falling slope of the light reception signal. Of course, the CPU 20 may obtain the logarithm of the signal strength of the light reception signal using both the pulse width and the falling slope of the light reception signal.
  • step S530 the CPU 20 calculates the non-saturated reflectance RNS using the signal rate of the light reception signal.
  • the CPU 20 obtains the logarithm of the signal strength of the light-receiving signal from the signal rate of the light-receiving signal. The relationship between the pulse width of the light-receiving signal and the signal strength of the light-receiving signal is determined in advance through experiments.
  • the CPU 20 calculates the signal strength of the light reception signal from the logarithm of the signal strength of the light reception signal.
  • the CPU 20 calculates the reflectance of the object 200 using the signal strength of the received light signal and the distance Dist to the object 200. Note that the CPU 20 may obtain the reflectance and reflection characteristics of the object 200 using at least one of the signal intensity of the light reception signal and the pulse width of the light reception signal.
  • step S540 the CPU 20 corrects the reflectance of the object 200 using the reflective surface angle ⁇ .
  • FIG. 26 is an explanatory diagram showing the relationship between the reflective surface angle ⁇ and the correction coefficient.
  • a solid line indicates a case where the light reception signal is saturated, and a broken line indicates a case where the light reception signal is not saturated.
  • the CPU 20 corrects the reflectance to a value smaller than 1 according to the reflection surface angle ⁇ , since the larger the reflection surface angle, the wider the pulse width.
  • the signal rate decreases when the reflecting surface angle is large, so the reflectance is greatly corrected by a magnification greater than 1.
  • the correction coefficient is 1.
  • the correction coefficient is 0.75 when the light reception signal is saturated
  • the correction coefficient is 3 when the light reception signal is not saturated.
  • FIG. 27 is a detailed explanatory diagram of step S600 executed by the CPU 20.
  • the CPU 20 determines whether the object 200 to which the light emitting unit 70 irradiates the irradiation light Lz is a bush. If the CPU 20 determines that the object 200 is a bush, the process proceeds to step S630. On the other hand, if the CPU 20 determines that the object 200 is not a bush, the process ends without performing reflectance correction.
  • step S610 The determination of whether the object 200 is a bush (step S610) is performed as follows.
  • a case where the object 200 is a bush (FIG. 28) and a case where the object 200 is a white line on a road surface (FIG. 29) will be described as examples.
  • the distance difference between the minimum distance Distmin and the maximum distance Distmax from the light receiving unit 80 to the measurement point is large.
  • the measurement point whose distance from the light receiving unit 80 to the measurement point is the minimum distance Distmin is not necessarily the lowest one, and the measurement point whose distance is the maximum distance Distmax is not necessarily the highest one. Further, the reflectance of the object 200 is high.
  • the measurement point where the distance from the light receiving unit 80 to the measurement point is the minimum distance Distmin is located at the lowest position.
  • the measurement point with the maximum distance Distmax is located at the uppermost position, and the distances to the measurement points in between are monotonically increasing.
  • step S610 of FIG. 27 the CPU 20 determines whether the object 200 is a bush using the minimum distance Distmin and maximum distance Distmax from the light receiving unit 80 to the measurement point, the increasing tendency therebetween, and the reflectance.
  • the CPU 20 determines that it is a bush if neither of the following (1) and (2) is true.
  • (1) Road surface-like condition The distance increases monotonically from the minimum value Distmin to the maximum value Distmax of the distance from the light receiving unit 80 to the object 200, and the maximum value Distmax and the minimum value Distmin of the distance from the light receiving unit 80 to the object 200 The difference between the two is greater than 0.3m.
  • (2) Low reflectance/small distance difference condition The reflectance is 60% or less, or the difference between the maximum value Distmax and minimum value Distmin of the distance from the light receiving unit 80 to the object 200 is 0.2 m or less.
  • FIG. 30 is an explanatory diagram illustrating in detail the bush determination (S610) executed by the CPU 20.
  • the CPU 20 determines the road surface-like condition (1).
  • the CPU 20 determines whether the distance from the light receiving unit 80 to the object 200 increases monotonically from the minimum value Distmin to the maximum value Distmax. If the distance is monotonically increasing, the CPU 20 moves the process to step S614. On the other hand, if the distance is not monotonically increasing, the process moves to step S616.
  • step S614 it is determined whether the difference between the maximum distance Distmax and the minimum distance Distmin from the light receiving unit 80 to the object 200 is greater than 0.3 m.
  • step S620 If the difference between the maximum value Distmax and the minimum distance Distmin is greater than 0.3 m, the process moves to step S620. If the difference between the maximum value Distmax and the minimum distance Distmin is not greater than 0.3 m, the process moves to step S616. If both steps S612 and S614 are satisfied, the road surface-like condition (1) is satisfied. Note that the threshold value of 0.3 m in step S614 is an example, and a value between 0.1 m and 0.5 m may be adopted.
  • step S616 and S618 the CPU 20 determines the low reflectance/small distance difference condition (2).
  • step S616 the CPU 20 determines whether the reflectance is 60% or less. If the reflectance is 60% or less, the CPU 20 moves the process to step S620. On the other hand, if the reflectance exceeds 60%, the CPU 20 moves the process to step S618.
  • step S618 it is determined whether the difference between the maximum value Distmax and the minimum distance Distmin is 0.2 m or less. If the difference between the maximum value Distmax and the minimum distance Distmin is 0.2 m or less, the CPU 20 moves the process to step S620.
  • step S622 if the difference between the maximum value Distmax and the minimum distance Distmin exceeds 0.2 m, the CPU 20 moves the process to step S622. If either step S616 or S618 is included, the low reflectance/small distance difference condition (2) is satisfied. In step S620, at least one of the road surface-like condition (1) and the low reflectance/small distance difference condition (2) is satisfied. Therefore, in step S620, the CPU 20 determines that the object 200 is not a bush. On the other hand, if neither step S616 nor S618 is satisfied, the road surface-like condition (1) is not satisfied, and the low reflectance/small distance difference condition (2) is not satisfied. Therefore, in step S622, the CPU 20 determines that the object 200 is a bush. Note that the threshold value of 0.2m in step S618 is an example, and any value smaller than the threshold value in step S614 may be used.
  • step S630 the CPU 20 executes reflectance correction. Specifically, the CPU 20 performs a correction by multiplying the reflectance before correction by a correction ratio R.
  • the correction ratio R is a value obtained by dividing a predetermined value by the distance difference between measurement points corresponding to five pixels above and below. Note that if the distance difference is less than or equal to a predetermined distance difference, the CPU 20 does not perform reflectance correction.
  • FIG. 31 is an explanatory diagram showing another method in which the falling slope detecting section 30 determines the falling slope of the light reception signal.
  • the falling slope detection unit 30 sets a first threshold TH1 smaller than the saturation intensity and a second threshold TH2 smaller than the first threshold TH1.
  • the falling slope detection unit 30 sets the first threshold TH1 to 80% of the saturation intensity and the second threshold TH2 to 20% of the saturation intensity, when the saturation intensity is 100% and the background light intensity is 0%.
  • a first threshold TH1 and a second threshold TH2 may be set.
  • the second threshold TH2 may be the same value as the threshold used when determining the pulse width.
  • the falling slope detection unit 30 detects the received light signal using the time t2-t1 for the received light signal to fall from the first threshold TH1 to the second threshold TH2, and the difference between the first threshold TH1 and the second threshold TH2. Calculate the slope of the fall of . According to this method, the falling slope detecting section 30 can easily detect time t1 and time t2, so that the falling slope of the light reception signal can be easily determined.
  • FIG. 32 is an explanatory diagram showing another method in which the falling slope detection section 30 determines the falling slope of the light reception signal.
  • the falling slope detection unit 30 sets a third threshold TH3 smaller than the saturation intensity.
  • the third threshold TH3 may be the same value as the threshold used when determining the pulse width, or may be the same value as either the first threshold TH1 or the second threshold TH2 described above.
  • the light reception signal begins to fall at time t0 (point P0) and falls to the first threshold value TH3 at time t3 (point P3).
  • the point P at the beginning of the fall may be a point at which the intensity of the received light signal has fallen to 99% of the saturation intensity.
  • the falling slope detector 30 uses the time t3-t1 for the received light signal to fall from the saturation intensity to the third threshold TH3 and the difference between the saturation intensity and the third threshold TH3 to determine the falling edge of the received light signal. Calculate the slope. According to this method, the falling slope detecting section 30 can easily detect time t0 and time t3, so that the falling slope of the light reception signal can be easily determined.
  • the reflectance when the light reception signal is saturated, the reflectance is calculated using at least one of the pulse width and falling slope of the light reception signal (referred to as the “saturation calculation method").
  • the saturation calculation method When the signal rate is not saturated, the reflectance is calculated from the signal rate (referred to as the “non-saturated calculation method”). That is, the method of calculating the reflectance is different depending on whether the light reception signal is saturated or not.
  • FIG. 33 is an explanatory diagram showing a method for ensuring continuity of the reflectance of the light reception signal when switching between when the light reception signal is saturated and when the light reception signal is not saturated.
  • the reflection characteristic acquisition unit 32 calculates the saturated reflectance RS using the saturated calculation method and the non-saturated reflectance using the non-saturated calculation method, regardless of whether the received light signal is saturated or not. Calculate RNS. Whether or not the received light signal is saturated can be determined based on the signal rate. When the signal rate is up to 0.9, the non-saturated reflectance RNS is used as the reflectance. When the signal rate is 1 or more, the reflectance at saturation RS is used as the reflectivity.
  • the reflection characteristic acquisition unit 32 calculates the reflectance R by combining the non-saturated reflectance RNS in the non-saturated state and the saturated reflectance in the saturated state. Switching is performed with gradual changes between RSs.
  • the reflectance R can be expressed by the following formula.
  • the reflection characteristic acquisition unit 32 calculates the reflectance in this way, the unsaturated reflectance RNS and the saturated reflectance RS will be continuous when switching between when the received light signal is saturated and when the received light signal is not saturated. Even if it is not, continuity of the reflectance R can be ensured.
  • the signal rate and the variable t have a linear relationship as shown in equation (5), but if equation (4) is satisfied, the signal rate and the variable t do not have a linear relationship. Good too.
  • FIG. 34 is an explanatory diagram showing the signal intensity of the reflected light Rz when the reflectance of the object 200 is high.
  • the signal strength of the reflected light Rz is also strong, so the reflected light Rz is reflected by the object detection device 10 and heads toward the object 200.
  • This reflected light hits the object 200 again and returns from the object 200. That is, the reflected light Rz undergoes multiple reflections.
  • the reflected light that returns first is called “first reflected light Rz1,” and the reflected light that returns next is called “second reflected light Rz2.” Note that depending on the reflectance of the object 200, third reflected light Rz3, fourth reflected light Rz4, etc. may occur.
  • the object 200 is located at a distance of 3 m or more from the object detection device 10 and the distance from the object detection device 10 to the object 200 is large.
  • the first pulse generated by the first reflected light Rz1 and the second pulse generated by the second reflected light Rz2 do not overlap, but are separated, and the first pulse The pulse width is sufficiently large.
  • the reflection characteristic acquisition unit 32 can acquire the reflectance of the object 200 using the pulse width of the first pulse. Note that this reflectance is the upper limit value of the reflectance.
  • the reflection characteristic acquisition unit 32 can acquire the reflectance of the object 200 using the pulse width of this combined pulse. This reflectance becomes the upper limit value of the reflectance.
  • the pulse detection unit 28 can detect only the pulse width of the skim portion where the signal intensity of the first pulse generated by the first reflected light Rz1 is highest.
  • the pulse width of this skim portion is narrower than the original pulse width of the first pulse generated by the first reflected light Rz1.
  • the reflection characteristic acquisition unit 32 may set the reflectance of the object 200 as the upper limit value.
  • the reflection characteristic acquisition unit 32 determines that the object 200 has a very high reflectance, such as a reflector, and sets the reflectance to the upper limit. May be set.
  • the distance to the object 200 that reflected the irradiation light Lz is less than or equal to a predetermined threshold.
  • the pulse detection unit 28 generates a first pulse corresponding to the distance to the object 200 that reflected the irradiation light Lz, a second pulse corresponding to twice the distance to the object 200 that reflected the irradiation light Lz, was detected.
  • the signal strength of the first pulse is greater than or equal to a predetermined threshold.
  • the signal strength of the second pulse is greater than or equal to a predetermined threshold.
  • the threshold value of condition (a) is, for example, 3 m.
  • the reflection characteristic acquisition unit 32 can acquire the reflection characteristics of the object 200 even if the object 200 has a very high reflectance.
  • the waveform of the detected reflected light Rz is also affected by the pulse width of the emitted irradiation light Lz. That is, the difference in waveform shape due to distance is not absolute. Therefore, the threshold values for the above four conditions may be determined as appropriate based on the pulse width of the irradiation light Lz used for detection, the resolution of the light receiving section 80, and the like.
  • the threshold value of condition (a) is set to 3 m, but it may be set to other distances such as 2.5 m, 3.5 m, etc. depending on the pulse width of the irradiation light Lz, the resolution of the light receiving section 80, etc. .
  • the reflector is often the one with the highest reflectance among the objects 200 measured using laser reflected waves from the vehicle 100. Therefore, if there is a reflector in the irradiation range S by the object detection device 10, by setting its reflectance as the maximum reflectance in the measurement range, it can be used to determine whether the received light signal is saturated. .
  • the intensity of the light reception signal is saturated, but even if the reflector is present in the irradiation range S, the light reception signal from the reflector may be saturated depending on the position of the reflector in the irradiation range S. It is possible that there is none. Even in such a case, reflectors can be extracted by using the method described below.
  • FIG. 35 is a flowchart showing a processing routine that allows a reflector to be detected even when the light reception signal is not saturated.
  • a measurement process is first performed as shown in the figure (step S811).
  • the measurement process involves irradiating the irradiation range S with laser light from the light emitting unit 70, receiving reflected light from the irradiation range S at the light receiving unit 80, and applying the irradiated laser light over the irradiation range S. Obtain the temporal intensity signal of the reflected light.
  • step S812 Extracting the echo includes obtaining the distance from the object detection device 10 to the closest echo.
  • steps S811 and S812 are collectively referred to as step S800, and are sometimes referred to as "echo extraction processing.”
  • condition A is (i) The distance to the object 200 that reflected the irradiation light Lz is less than or equal to a predetermined threshold; (ii) The reflected light Rz is not saturated, but its intensity is above a predetermined value, That is what it is. If this condition A is satisfied, then it is determined whether the intensity signal contains an echo at a position RL times the distance to the extracted echo (RL is an integer of 2 or more). Step S815).
  • the object detection device 10 In a situation where a signal detected at a certain coordinate in the irradiation range S contains multiple echoes and another echo is located at a position RL times the distance to the first extracted echo, the object detection device 10 This usually does not occur if the closest echo you see is due to reflected light from an object. This is because if there is an object, the laser beam will not be reflected even if there is an object behind it. Echoes occur at integral multiples of the same coordinate position as shown in the bottom row of FIG. 34 in the following cases.
  • Echoes at positions that are multiples of integers are caused by light reflected from a retroreflector such as a traffic sign, reflected by a lens or mirror in the object detection device 10, and returned to the object side again by a reflector with a high reflectance. It is caused by being reflected.
  • the plurality of echoes are arranged at positions that are integral multiples of the time of the first echo, that is, the distance to the first object detection position.
  • step S815 determines that the object producing these echoes is a reflector (step S816). Then, the reflectance of the portion determined to be a reflector is set as the highest reflectance (step S817), and the process exits to "NEXT" to end this processing routine. Note that if condition A is not satisfied (step S813: “NO”) or if multiple echoes are not arranged at RL times the position (step S815: “NO”), skip to "NEXT”. Then, this processing routine ends. This is because the echo is not determined to be caused by the reflector.
  • FIG. 36 An example of such reflector detection is shown in FIG. 36.
  • the reflected light from the far away round sign RJ2 is saturated, and is determined to be a reflector according to the judgment explained using FIG. 34.
  • the square signboard RJ1 which is located closer to the vehicle 100 than the round signboard RJ2 is located at the end of the irradiation range S when viewed from the object detection device 10 mounted on the vehicle 100. Therefore, the angle at which the laser beam is incident on the corner signboard RJ1 has a large angle with respect to the normal line of the corner signboard RJ1.
  • the corner signboard RJ1 is a reflector that is a retroreflector, the intensity of the reflected light is rather low and is not saturated.
  • the above-mentioned condition A and the condition that a plurality of echoes exist at positions times RL are satisfied, it can be determined that this is a reflector even if the signal strength is not saturated.
  • the signal intensity of the reflected light from the far round signboard RJ2 is saturated, so the reflectance of the reflected light from the round signboard RJ2 can be treated as the highest reflectance.
  • the round signboard RJ2 does not exist, there is no object for which the signal intensity is saturated, so the highest reflectance cannot be set.
  • the reflector can be detected, so the signal intensity of the reflected light from this reflector can be set as the highest reflectance in the irradiation range S. Therefore, other objects can be easily discriminated based on the highest reflectance.
  • Step S821 and S822 in the illustrated process are the same as the echo extraction process (step S800) shown in FIG. 35, and echoes are extracted at each coordinate within the irradiation range S.
  • condition B in this case is (i) The distance to the object 200 that reflected the irradiation light Lz is less than or equal to a predetermined threshold; (iia) The signal strength of the reflected light Rz is saturated, That is what it is. If condition B is satisfied, then processing is performed to reduce the intensity of the laser light output from the light emitting section 70 (step S824).
  • step S800 the echo extraction process for the same coordinate position is performed again, and it is determined whether the signal intensity of the reflected light is saturated (step S825). If it is saturated, the object for which the reflected light was detected is determined to be a reflector (step S826), and the reflectance of the portion determined to be the reflector is set as the highest reflectance (step S827), and then "NEXT" is selected. Exit and end this processing routine. Note that when condition B is not satisfied (step S813: “NO”) or when the signal strength of the echo is not saturated (step S825: “NO”), it is determined that the echo is caused by the reflector. First, go to "NEXT" and end this processing routine.
  • whether the object 200 is a reflector is determined without considering the condition that echoes at the same coordinate position exist at an integral multiple of the position on the time axis.
  • the distance to the object 200 that reflected the irradiation light Lz is less than or equal to a predetermined threshold;
  • the signal strength of the reflected light Rz is saturated,
  • the signal intensity of the reflected light is saturated, even if the intensity of the light emitted by the light emitting unit 70 is reduced (step S824), the signal intensity of the reflected light is still saturated, such as a retroreflector. This is because it can be determined that it is a reflector that returns reflected light in a specific direction. According to this method, in order to determine whether or not the object 200 at a specific coordinate is a reflector, there is no need to check whether echoes exist or are arranged at positions times RL on the time axis. , processing can be simplified.
  • the output reduction process was performed by reducing the intensity of the irradiated light Lz by the light emitting unit 70, but the output reduction process can also be performed using other methods. For example, this can be achieved by widening the range from which the object detection device 10 reads out signals from the light receiving section 80, that is, the echo detection target region ROI.
  • the process of widening the detection target region ROI is performed by widening the range from which the light reception signal is read from the light receiving section 80 of the object detection device 10. Note that the process of widening the detection target region ROI can also be realized by directly controlling the light emitting section 70 including the scanner 74 and the light receiving section 80 by hardware.
  • FIG. 38 is a block diagram schematically showing the object detection device 10A of the second embodiment mounted on the vehicle 100.
  • This object detection device 10A is different from the object detection device 10 of the first embodiment in that it includes a video camera 111 and an image processing unit 112 that captures and processes a video signal from the video camera 111.
  • the other hardware configuration of the second embodiment is the same as that of the first embodiment.
  • the programs executed by the CPU 20 and the functions realized by executing the programs are the same as those in the first embodiment except for the reflective surface angle acquisition section 36A.
  • the video camera 111 is provided at the front of the vehicle 100, captures an image of a range including the irradiation range S being scanned by the object detection device 10A, and outputs the image to the image processing unit 112.
  • the image processing unit 112 has the ability to analyze the video captured by the video camera 111 and extract white lines and road shoulders included in the image.
  • the technology for extracting the shoulder of the road on which the vehicle is traveling, the white line indicating the driving lane, etc. from the video imaged by the video camera 111 is well known, so a detailed explanation thereof will be omitted (see, for example, Japanese Patent Laid-Open No. 2004-21723).
  • the image processing section 112 outputs the processing results of the road shoulder/white line detection to the CPU 20, and provides them for processing by the reflective surface angle acquisition section 36A.
  • the CPU 20 executes the process shown in FIG. 39.
  • This process corresponds to the process of step S540 in FIG. 22 in the first embodiment described above.
  • the image processing unit 112 is first used to input the video signal from the video camera 111 (step S831), and performs road shoulder/white line extraction processing based on the image included in the input video signal (Ste S832).
  • the road shoulder/white line extraction process is a well-known method as described above, so a detailed explanation will be omitted.
  • An example of extracting road shoulders and white lines from an image is shown in FIG. In this example, the detected road shoulder HSD is shown by a broken line.
  • step S834 distances are measured using the extracted road shoulders and white lines as objects.
  • the distance DD to the target object can be specified using the function of the object detection device 10A.
  • step S835 it is determined whether the signal intensity of the reflected light using the light emitting section 70 and the light receiving section 80 of the object detection device 10A is saturated. If it is determined that the reflected light is not saturated, the reflective surface angle, which is the angle at each position of the target object, is calculated using the result of distance measurement to the target object from which the reflected light was detected (step S836).
  • a process is performed to correct the reflectance at the time of non-saturation according to the reflective surface angle ⁇ (step S837).
  • This correction process is similar to that described using FIG. 26 in the first embodiment.
  • the correction process may be performed only when the reflective surface angle ⁇ is a predetermined angle, for example, 45 degrees or more. This is because when the reflective surface angle ⁇ is small, the distance to the object is relatively short and the irradiated light Lz is close to the normal to the object surface, so the signal intensity of the reflected light Rz is originally high.
  • the process exits to "NEXT" and ends this processing routine.
  • the road shoulders and white lines are identified based on the image taken by the video camera 111, and then the reflectance is corrected, so the processing for determining the reflectance of the road surface can be simplified.
  • the amount of calculation required to obtain the reflectance can be reduced.
  • a similar procedure can be applied, for example, when determining the reflectance of a long roadside wall or guardrail. Note that in the above process, the reflectance is corrected, but if the process is performed using the reflection intensity, the reflection intensity may be corrected.
  • the reflection characteristic acquisition process will be described using FIG. 42.
  • the illustrated process is repeatedly executed at predetermined intervals, for example, every 100 msec.
  • the reflection characteristics used in the process specifically the reflectance and reflection intensity, are varied by switching the width and narrowness of the detection target region ROI, and are used according to the purpose and conditions of the process. .
  • this reflection characteristic acquisition process that is started at predetermined time intervals, first, a process is performed in which the detection target region ROI, which is the range read out from the irradiation range S by the light receiving unit 80, is set to a default narrow range (step S870).
  • Reflection characteristic 1 is reflectance or reflection intensity. In the following description, the reflectance will be explained, but it may be the reflection intensity or both.
  • step S877 a process is performed to widen the detection target region ROI, which is the range that the light receiving unit 80 reads from the irradiation range S (step S877). Since the detection target region ROI is a narrow region by default, it is switched to a wide region whose maximum range is the irradiation range S. After widening the detection target region ROI, similarly to steps S871 to S875, light emission processing using the light emitting section 70 and light reception processing using the light receiving section 80 are performed (step S881). Thereafter, an echo is extracted based on the received signal (step S883), and reflection characteristic 2 is obtained from the echo (step S885).
  • reflection characteristic 1 with the detection target region ROI narrowed and reflection characteristic 2 with the detection target region ROI widened are stored in the storage device 50.
  • Reflection characteristic 2 is acquired with a wide detection target region ROI, so the dynamic range is wider than reflection characteristic 1, which is acquired with a narrow detection target region ROI, and the signal intensity of the reflected light is saturated accordingly. It's hard to do. Therefore, the distance to the object 200 that returned the reflected light is determined from the value on the time axis of the extracted echo (step S887), and it is determined whether to use reflection characteristic 1 or reflection characteristic 2 depending on the distance. Set. Specifically, when the distance to the object 200 is "long distance" which is greater than a predetermined threshold value, reflection characteristic 1 is used (step S888).
  • reflection characteristic 2 is used (step S889). After the above processing, the process exits to "NEXT" and ends this processing routine.
  • the object detection device 10A By repeatedly executing the reflection characteristic acquisition processing routine described above, the object detection device 10A constantly stores reflection characteristics 1 and 2, which are acquired while switching the width of the detection target region ROI, in the storage device 50. do. Therefore, depending on the distance to the object 200 determined from the echo, it is possible to use reflection characteristics obtained in a state where the reflected light is less likely to be saturated. If the detection target region ROI is made wider, saturation will always be less likely to occur, but the dynamic range will become larger and signals from distant objects will become weaker. On the other hand, by performing the above processing, it is possible to narrow the detection target region ROI and strengthen the intensity signal of the reflected light for a distant object.
  • the intensity signal is likely to be saturated, but since it is originally reflected light from a long distance, the signal intensity of the reflected light is weak and the possibility of saturation is low. Therefore, in processing using reflectance, etc., it is possible to avoid the method used when the intensity signal is saturated, that is, the process of calculating the reflectance at saturation from the pulse width and falling slope shown as step S520 in FIG. increases. On the other hand, if measurement is performed with a wider detection target region ROI, the intensity signal becomes less likely to be saturated, so even if the signal intensity is strong due to reflected light from a short distance, the possibility of saturation can be reduced.
  • an object detection device 10 includes a light emitting unit 70 that emits irradiation light Lz toward a predetermined irradiation range S, a light receiving unit 80 that receives reflected light Rz corresponding to the irradiation light Lz, and a The distance calculation unit 24 calculates the distance to the object 200 that reflected the irradiation light Lz using the time from the time to the reception of the reflected light Rz, and the light reception signal corresponding to the reflected light Rz output from the light receiving unit 80 is saturated.
  • a saturation determination unit 26 that determines whether or not the light reception signal is present
  • a pulse width detection unit 28 that detects the pulse width of the light reception signal at a predetermined threshold value
  • a falling slope detection unit 30 that detects the slope of the fall of the light reception signal.
  • a reflection characteristic acquisition section 32 that acquires reflection characteristics including at least one of reflection intensity and reflectance of the object 200, and when the light reception signal is saturated, the reflection characteristic acquisition section 32 acquires the pulse width. Reflection characteristics are obtained using at least one of the falling slope and the falling slope. According to the object detection device 10 of this form, it is possible to detect a difference in the intensity (signal intensity) of reflected light from the object 200 even when the intensity of the light reception signal is in the saturation region of the light receiving section 80.
  • the object detection device 10 of the form (3) above further includes an object detection unit 40 that detects the object 200 using the reflection characteristics and the distance to the reflection point RP of the irradiation light of the object 200. Good too. According to this form, it is possible to detect what object 200 is.
  • the falling slope is the peak point PP where the light reception signal reaches the saturation intensity and the end point EP where the light reception signal falls to the threshold value. It may be a time change rate of the light reception signal between. According to the object detection device 10 of this form, the slope of the fall of the light reception signal can be easily calculated.
  • the falling slope detection unit 30 sets a first threshold TH1 smaller than the saturation intensity and a second threshold TH2 smaller than the first threshold, so that the light reception signal
  • the slope of the fall may be calculated using the time from the threshold to the second threshold and the difference between the first and second thresholds. According to the object detection device 10 of this form, the slope of the fall of the light reception signal can be easily calculated.
  • the falling slope detection unit 30 sets a third threshold TH3 smaller than the saturation intensity, and falls to the third threshold TH3 from the time when the light reception signal falls from the saturation intensity.
  • the slope of the fall may be calculated using the time until the end and the difference between the saturation intensity and the third threshold TH3. According to the object detection device 10 of this form, the slope of the fall of the light reception signal can be easily calculated.
  • the reflection characteristic acquisition unit 32 may acquire the reflection characteristics after averaging the pulse width and the falling slope. According to the object detection device 10 of this form, the influence of variations in pulse width and falling slope can be suppressed.
  • the reflection characteristic acquisition unit 32 detects a difference between the intensity of the received light signal and the pulse width when the received light signal is not saturated. Reflection characteristics may be acquired using at least one of them. According to the object detection device 10 of this form, when the light reception signal is not saturated, the intensity and pulse width of the light reception signal can be easily measured, so that the reflection characteristics can be easily obtained from the intensity of the light reception signal.
  • the reflection characteristic acquisition unit 32 calculates the difference between the intensity of the light reception signal and the intensity of the background light, and the saturated intensity of the light reception signal.
  • the reflection characteristics may be acquired using a signal rate that is an intensity ratio of the difference between the intensity of the background light and the intensity of the background light. According to the object detection device 10 of this form, the reflection characteristics of the object 200 can be acquired without the influence of background light.
  • the reflection characteristic acquisition unit 32 converts the reflection characteristics between the reflection characteristics in the unsaturated state and the saturated state in a region where the received light signal transitions between the unsaturated state and the saturated state. It is also possible to change the reflection characteristics gradually. According to the object detection device 10 of this form, continuity of reflection characteristics in a non-saturated state and a saturated region can be ensured.
  • the reflection characteristic acquisition section 32 may acquire the reflection characteristics after averaging the intensity of the received light signal. According to the object detection device 10 of this form, it is possible to suppress the influence of variations in the intensity of the received light signal.
  • the reflection characteristic may be one of the reflection intensity and reflectance of the object 200.
  • the object detection device 10 of the above embodiments (1) to (11) further includes a background light correction unit 34 that performs correction to remove the influence of background light from the received light signal, and the background light correction unit 34
  • the reflection characteristic acquisition unit 32 may acquire the reflection characteristics after performing correction to remove the influence of background light from the signal.
  • the strength of the background light differs during the day and night, and the strength of the received light signal differs. According to the object detection device 10 of this form, the reflection characteristics of the object 200 can be acquired without the influence of background light.
  • the background light correction unit 34 removes the influence of the background light on the pulse width and the falling slope, so that the light reception signal becomes saturated. If not, the influence of background light on at least one of the intensity of the received light signal and the pulse width may be removed.
  • the reflection is further configured to obtain the angle between the direction of the object 200 and the normal to the reflective surface of the object 200 as the reflective surface angle ⁇ .
  • the reflection characteristic acquisition section 32 may include a surface angle acquisition section 36, and the reflection characteristic acquisition section 32 may correct the reflection characteristics using the reflection surface angle ⁇ .
  • the reflection characteristics of the object 200 can be obtained by removing the influence of the reflection surface angle from the light reception signal.
  • the reflection characteristic acquisition unit 32 when the received light signal is not saturated, performs a correction such that the intensity of the received light signal increases as the reflective surface angle ⁇ increases, and is saturated, correction may be performed such that the greater the reflective surface angle ⁇ , the smaller the intensity of the received light signal. According to the object detection device 10 of this form, the influence of the reflective surface angle ⁇ on the light reception signal can be removed.
  • the reflective surface angle acquisition unit 36 determines the direction vector between two nearby points NP that sandwich the reflective point RP on the object 200 from above and below, and the reflective point RP on the object 200 on the left and right sides. Obtain the reflective surface angle ⁇ by using a direction vector between two nearby points NP sandwiched between the two, a direction vector of at least one of them, and a sensor vector indicating the direction from the reflection point RP to the light receiving unit 80. You may.
  • the reflection point NP is further detected by using the distance from the light receiving unit 80 to the reflection point RP and the adjacent reflection points ARP around the reflection point RP and the variation in reflection characteristics.
  • the reflection characteristic acquisition unit 32 includes a bush determination unit 38 that determines whether the reflection point RP is included in the bushes, and when the reflection point RP is included in the bushes, the reflection characteristic acquisition unit 32 determines the distance from the light receiving unit 80 to the reflection point RP and the adjacent reflection point ARP.
  • the reflection characteristics may be corrected downward depending on the variation in the reflection characteristics.
  • Bushes are highly reflective. According to the object detection device 10 of this form, when the object is a bush, the reflection characteristics can be corrected downward.
  • the distance to the object 200 that reflects the irradiation light Lz is less than or equal to a predetermined threshold
  • the pulse detection unit 28 detects the irradiation light Lz.
  • a first pulse corresponding to the distance to the object 200 that reflected the irradiation light and a second pulse corresponding to twice the distance to the object 200 that reflected the irradiation light are detected, and the signal strength of the first pulse is If the signal strength of the second pulse is equal to or greater than a predetermined threshold, the reflection characteristic acquisition unit may acquire the reflectance as a predetermined upper limit.
  • the reflection characteristic acquisition unit 32 can acquire the reflection characteristics of the object 200 even when the reflectance of the object 200 is large and multiple reflections occur.
  • a first light reception signal corresponding to a distance to the object that reflected the irradiation light is further provided at a predetermined position on the light receiving section. and a second light reception signal corresponding to a distance RL times the distance to the object determined from the first light reception signal (RL is an integer of 2 or more).
  • the object at the corresponding position may include a reflector detection unit that determines that the object is a reflector. In this way, if the detected object is a reflector, it can be easily determined.
  • the reducing unit further includes a reducing unit that reduces at least one of the intensity of the reflected light or the detection sensitivity of a received light signal corresponding to the reflected light;
  • the saturation determination unit determines that the light reception signal corresponding to the distance to the object that reflected the irradiation light is saturated, the intensity of the reflected light or the detection of the light reception signal corresponding to the reflected light is determined.
  • a reflector detection unit that reduces at least one of the sensitivities and determines that the object at the position corresponding to the light reception signal is a reflector if the light reception signal remains saturated even with the reduction; Good too.
  • the detected object is a reflector
  • this can be easily determined.
  • Various configurations can be adopted for the reducing unit, such as a configuration that reduces the output of the light emitting unit, a configuration that reduces the light receiving sensitivity of the light receiving unit, or a configuration that expands the detection target area of the irradiated light. Of course, these may be implemented in combination.
  • the object detection device further includes determining the position of the detected object or the area on the object with respect to at least a part of the area in which the object detection device detects the object.
  • a reflective surface angle analysis unit that analyzes the received light signal to determine a reflective surface angle that is an angle formed by the direction of the object and the normal to the reflective surface of the object; and when the analyzed reflective surface angle is larger than the predetermined angle threshold, at least one of the reflection intensity and reflectance of the object in the reflection characteristic acquisition unit is set so that the reflective surface angle is equal to the angle threshold.
  • a correction unit that corrects the value to a higher value than in the following cases. In this way, road surfaces, white lines, etc. can be easily identified.
  • Analysis of the position of the object for analyzing the reflective surface angle may be performed based on an image captured by an imaging device such as a camera.
  • the saturation determination unit further determines that the light reception signal corresponding to the distance to the object that reflected the irradiation light is saturated.
  • the method may include a reducing unit that reduces the degree of saturation of the light reception signal by reducing at least one of the intensity of the reflected light or the detection sensitivity of the light reception signal corresponding to the reflection light when the determination is made. In this way, the degree of saturation of the received light signal can be alleviated, and variations in calculation of reflection characteristics can be reduced.
  • the reducing unit such as a configuration that reduces the output of the light emitting unit, a configuration that reduces the light receiving sensitivity of the light receiving unit, or a configuration that expands the detection target area of the irradiated light.
  • a configuration that reduces the output of the light emitting unit such as a configuration that reduces the output of the light emitting unit, a configuration that reduces the light receiving sensitivity of the light receiving unit, or a configuration that expands the detection target area of the irradiated light.
  • these may be implemented in combination.
  • the lowering section switches the detection target area, which is the area to be detected for distance, into at least two stages, thereby increasing the detection sensitivity of the light reception signal corresponding to the reflected light. may be changed, and the switching may cause the reflection characteristic acquisition section to acquire a reflection characteristic with higher accuracy. In this way, objects can be detected with high accuracy simply by switching the detection target area. Moreover, if switching is performed dynamically, highly accurate detection can be performed at any time.
  • an object detection method for the object detection device 10 emits irradiation light Lz toward a predetermined irradiation range S, receives reflected light Rz corresponding to the irradiation light Lz, and calculates the time from the emission of the irradiation light Lz to the reception of the reflected light Rz. is used to calculate the distance to the object 200 that reflected the irradiation light Lz, determine whether the light reception signal corresponding to the reflected light Rz is saturated, and detect the pulse width of the light reception signal at a predetermined threshold.
  • the falling slope of the light reception signal is detected, and if the light reception signal is saturated, the reflection characteristic is calculated using at least one of the pulse width and the falling slope.
  • the reflection characteristic when the light reception signal is not saturated, the reflection characteristic may be acquired using the intensity of the light reception signal. According to this type of object detection method, when the light reception signal is not saturated, the intensity of the light reception signal can be easily measured, so that the reflection characteristics can be easily obtained from the intensity of the light reception signal.
  • control unit and the method described in the present disclosure are implemented by a dedicated computer provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. may be done.
  • the controller and techniques described in this disclosure may be implemented by a dedicated computer provided by a processor configured with one or more dedicated hardware logic circuits.
  • the control unit and the method described in the present disclosure may be implemented using a combination of a processor and memory programmed to perform one or more functions and a processor configured by one or more hardware logic circuits. It may be implemented by one or more dedicated computers configured.
  • the computer program may also be stored as instructions executed by a computer on a computer-readable non-transitory tangible storage medium.
  • the present disclosure is not limited to the embodiments described above, and can be realized in various configurations without departing from the spirit thereof.
  • the technical features in each embodiment that correspond to the technical features in the form described in the summary column of the invention may be used to solve some or all of the above-mentioned problems, or to achieve one of the above-mentioned effects. In order to achieve some or all of the above, it is possible to replace or combine them as appropriate. Further, unless the technical feature is described as essential in this specification, it can be deleted as appropriate.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

物体検出装置(10)は、受光信号の強度が受光部の飽和領域にある場合にも物体が何であるかを検出しやすくするため、照射光を発光する発光部(70)と、照射光に対応する反射光を受光する受光部(80)と、照射光を反射した物体までの距離を算出する距離算出部(24)と、受光部から出力される反射光に対応する受光信号が飽和しているか否かを判定する飽和判定部(26)、予め定めた閾値における受光信号のパルス幅を検出するパルス幅検出部(28)と、受光信号の立ち下がりの傾きを検出する立ち下がり傾き検出部(30)、物体の反射強度と反射率の少なくとも一方を含む反射特性を取得する反射特性取得部(32)と、を備える。反射特性取得部は、受光信号が飽和している場合には、パルス幅と立ち下がりの傾きの少なくとも一方を用いて前記反射特性を取得する。

Description

物体検出装置および物体検出方法 関連出願の相互参照
 本願は、2022年3月23日に日本国において出願された特許出願番号2022-47091号および2023年2月27日に日本国において出願された特許出願番号2023-28101号に基づくものであって、それらの優先権の利益を主張するものであり、それらの特許出願の全ての内容が、参照により、本願明細書に組み入れられる。
 本開示は、物体検出装置および物体検出方法に関する。
 パルス光を測距対象物に投光し、対象物からの反射光を受光し、パルス光を投光してから反射光を受光するまでの時間を計測することで、測距対象物までの距離を測定してする技術が種々提案されている。国際公開第2017/042993A1号パンフレットに記載の測距装置では、2種類の閾値を設定し、反射光を受信したときに、反射光から得られる信号の立ち上がり時間の差分から反射光の強度(信号強度)を求め距離測定の精度を高めている。
 しかし、国際公開第2017/042993A1号パンフレットに記載の測距装置では、対象物を検出する際、対象物からの反射光が強い場合には、立ち上がり時間の差分に差がほとんど生じない。そのため、反射光の強度(信号強度)の違いを検出することが困難である。そのため、このパンフレットに記載の測距装置では、対象物までの距離はわかっても、反射光の強度(信号強度)の違いを検出することが難いという課題があった。この課題は、反射光から得られる信号強度が反射光を受光する受光素子の飽和領域にある場合に顕著である。
 本開示は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。
 本開示の一形態によれば、物体検出装置が提供される。この物体検出装置は、予め定められた照射範囲に向けて照射光を発光する発光部と、前記照射光に対応する反射光を受光する受光部と、前記照射光の発光から前記反射光の受光までの時間を用いて、前記照射光を反射した物体までの距離を算出する距離算出部と、前記受光部から出力される前記反射光に対応する受光信号が飽和しているか否かを判定する飽和判定部と、予め定めた閾値における前記受光信号のパルス幅を検出するパルス幅検出部と、前記受光信号の立ち下がりの傾きを検出する立ち下がり傾き検出部と、前記物体の反射強度と反射率の少なくとも一方を含む反射特性を取得する反射特性取得部と、を備え、前記反射特性取得部は、前記受光信号が飽和している場合には、前記パルス幅と前記立ち下がりの傾きの少なくとも一方を用いて前記反射特性を取得する。この形態の物体検出装置によれば、受光信号の強度が受光部の飽和領域にある場合にも反射光の強度(信号強度)の違いを検出することが可能となる。
 本開示は、種々の形態で実現することも可能である。例えば、物体検出装置の他、測距方法、物体検出装置の補正装置、補正方法等の形態で実現することができる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1は、実施形態における物体検出装置を搭載した車両と照射光の照射範囲を示す説明図であり、 図2は、物体検出装置の概略構成を示すブロック図であり、 図3は、受光信号が飽和したときの受光信号を示す説明図であり、 図4は、反射面角度と受光信号との関係を示す説明図であり、 図5は、CPUが実行する物体検出の処理フローチャートであり、 図6は、CPUが実行する反射点及び近接点の抽出の詳しい説明図であり、 図7は、反射点と隣接反射点を示す説明図であり、 図8は、CPUが実行する反射面角度の算出の詳しい説明図であり、 図9は、左右ベクトル、上下ベクトル、法線ベクトル、センサベクトルの関係を示す説明図であり、 図10は、上下ベクトルとセンサベクトルから反射面角度を算出するフローチャートであり、 図11は、3点が直線上に並んでいるか否かを判定するフローチャートであり、 図12は、3点の位置関係を示す説明図であり、 図13は、物体が道路上に引かれた白線である場合を示す説明図であり、 図14は、CPUが実行する平均化処理の詳しい説明図であり、 図15は、信号レートを説明する説明図であり、 図16は、反射点およびその回りの近接点の信号を示す説明図であり、 図17は、CPUが実行する背景光補正の詳しい説明図であり、 図18は、背景光レートを説明する説明図であり、 図19は、背景光レートによる受光信号のパルス幅の補正を示す説明図であり、 図20は、背景光レートによる受光信号の立ち下がり傾きの補正を示す説明図であり、 図21は、背景光レートによる受光信号の信号レートの補正を示す説明図であり、 図22は、CPUが実行する反射特性取得の詳しい説明図であり、 図23は、受光信号のパルス幅と受光信号の信号強度の対数の関係を示す説明図であり、 図24は、受光信号の立ち下がり傾きと受光信号の信号強度の対数の関係を示す説明図であり、 図25は、受光信号の信号レートと受光信号の信号強度の対数の関係を示す説明図であり、 図26は、反射面角度と補正係数の関係を示す説明図であり、 図27は、CPUが実行する茂み補正の詳しい説明図であり、 図28は、茂みの特徴を示す説明図であり、 図29は、物体が路面の白線である場合を示す説明図であり、 図30は、CPUが実行する茂み判定を詳しく説明する説明図であり、 図31は、立ち下がり傾き検出部が受光信号の立ち下がり傾きを求める他の方法を示す説明図であり、 図32は、立ち下がり傾き検出部が受光信号の立ち下がり傾きを求める他の方法を示す説明図であり、 図33は、受光信号が飽和しているときと飽和していないときの切り替わりでの受光信号の反射特性の連続性を確保する方法を示す説明図であり、 図34は、物体の反射率が高い場合の反射光の信号強度を示す説明図であり、 図35は、リフレクタを特定する他の実施形態を示すフローチャートであり、 図36は、リフレクタの反射率を画像化した一例を示す説明図であり、 図37は、リフレクタを特定する更に他の実施形態を示すフローチャートであり、 図38は、第2実施形態の車両に搭載された物体検出装置の概略構成を示すブロック図であり、 図39は、第2実施形態における受光信号補正処理を示すフローチャートであり、 図40は、路肩・白線を抽出している一例を示す説明図であり、 図41は、照射光が対象物の法線となす角度を示す説明図であり、そして 図42は、対象物の反射特性を取得する処理を示すフローチャートである。
A.第1実施形態:
 図1に示すように本実施形態の物体検出装置10は、車両100に搭載され、車両100の前方の周囲に存在する物体、例えば、他の車両や歩行者や建物等までの距離を測定するとともに、物体を検出する。本実施形態では、物体検出装置10は、LiDAR(Light Detection And Ranging)により構成されている。物体検出装置10は、予め定められた照射範囲Sに対し、パルス光である照射光Lzを走査しながら照射し、照射光Lzに対応する反射光を受光する。例えば、照射範囲Sに物体があれば、照射光Lzが物体に当たり、物体から反射光がはね返ってくる。物体検出装置10は、この反射光を受光し、物体までの距離を検出する。物体検出装置10は、この反射光を受光し、物体が何であるか、を検出してもよい。
 図1では、照射光Lzの射出中心位置を原点とし、車両100の前後方向をY軸とし、原点を通り車両100の幅方向をX軸とし、原点を通る鉛直方向をZ軸として表している。なお、車両100の前方を+Y方向、車両100の後方を-Y方向とし、車両100の右方向を+X方向、車両100の左方向を-X方向とし、鉛直上方を+Z方向、鉛直下方を-Z方向とする。照射光Lzは、X-Y平面と平行な方向の一次元走査により照射される。図1の実線の太い矢印で示すように、照射光Lzは、車両100の前方方向に向かって左から右側に走査しながら、照射される。この照射光Lzは、パルス光なので、各パルスにより照射される場所を、細い実線の各マス目として示した。照射光Lzは、物体検出装置10の分解能Δφに応じた角度で照射される。分解能Δφとは、レーザの照射軸がY-Z平面においてY軸となす角度を意味する。
 物体検出装置10は、照射光Lzを照射してから反射光を受光するまでの時間、すなわち、光の飛行時間TOF(Time of Flight)を測定し、飛行時間TOFから物体までの距離を算出することによって、物体を測距点群として検出する。測距点とは、物体検出装置10が測距可能な範囲において、反射光によって特定される物体の少なくとも一部が存在し得る位置を示す点を意味する。また、測距点群とは、所定期間における測距点の集合を意味する。物体検出装置10は、検出された測距点群の3次元座標により特定される形状、および、測距点群の反射特性を用いて、物体を検出する。
 図2に示すように、物体検出装置10は、CPU20と、記憶装置50と、入出力インターフェース60と、発光部70と、受光部80と、を備える。CPU20と、記憶装置50と、入出力インターフェース60は、バス90を介して双方向に通信可能に接続されている。記憶装置50は、ROM、RAM、およびEEPROMのような半導体記憶装置の他、個体記憶装置を含む。入出力インターフェース60には、発光部70および受光部80が接続されている。
 CPU20は、記憶装置50に記憶されているコンピュータプログラムを読み込んで実行することにより、発光制御部22、距離算出部24、飽和判定部26、パルス幅検出部28、立ち下がり傾き検出部30、反射特性取得部32、背景光補正部34、反射面角度取得部36、茂み判定部38、物体検出部40として機能する。パルス幅検出部28、立ち下がり傾き検出部30の少なくとも一方を含む検出部を「パルス検出部27」とも呼ぶ。なお、発光制御部22、距離算出部24、飽和判定部26、パルス幅検出部28、立ち下がり傾き検出部30、反射特性取得部32、背景光補正部34、反射面角度取得部36、茂み判定部38、物体検出部40は、CPU20からの指示により動作する別の装置として構成されていてもよい。
 発光制御部22は、入出力インターフェース60を介して一定の間隔で発光信号を発光部70に発信する。発光部70は、発光素子72とスキャナ74を備えている。発光部70は、発光信号を受信すると、発光素子72から照射光Lzを発光する。発光素子72は、例えば、赤外レーザダイオードで構成されており、照射光Lzとして赤外レーザ光を発光する。スキャナ74は、例えばミラーやDMD(Digital Mirror Device)で構成されており、発光素子72から発光された照射光を一定の間隔でーx方向から+x方向およびーz方向から+z方向に走査する。発光素子42は1つでもよく複数であってもよい。発光素子42がZ軸方向に沿って複数設けられている場合は、例えば、ーz方向から+z方向の走査を省略できる。
 受光部80は、複数の受光素子82を備える。受光素子82は、x-z方向の2次元に配列されたm×nのSPAD(Single Photon Avalanche Diode)により構成されている。受光素子82は、p×qの2次元に配列されたp×q個のSPADで1つの画素を構成している。ここで、p、qは、それぞれ2以上の整数である。従って、受光部80は、(m/p)×(n/q)の画素を有している。なお、上述したm×nのSPADのmはpの整数倍の整数、nはqの整数倍の整数であることが好ましい。CPU10は、どの画素で反射光Rzを受光したかにより、反射光Rzがどの方向から返ってきたか、すなわち、物体200における照射光Lzの反射点(測距点)の方向、3次元極座標系の偏角と天頂角がわかる。なお、CPU10は、受光素子82の座標を用いる代わりに、スキャナ74の角度を用いて、反射光Rzがどの方向から返ってきたか、すなわち、物体200における照射光Lzの反射点(測距点)の方向を取得してもよい。受光部80を小さくできる。
 距離算出部24は、発光素子72が照射光Lzを発光してから照射光Lzが物体200に当たり、その反射光Rzが受光部80の受光素子82に受光されるまでの時間TOFを用いて、物体検出装置10から物体200の反射点までの距離Dを算出する。光速をcとすると、物体検出装置10から物体200の反射点までの距離Dは、TOF/(2・c)である。CPU20は、飛行時間TOFから物体200までの距離(3次元極座標系の動径)、がわかるので、物体200までの距離(動径)と方向(偏角と天頂角)を用いて、反射点(測距点)の3次元座標を算出できる。
 飽和判定部26は、受光素子82が受光することにより発生させる受光信号が飽和したか否かを判定する。飽和判定部26は、1画素の受光素子82が発生する受光信号が、1画素の受光素子82が発生させることができる受光信号の最大値(以下、「飽和強度」と呼ぶ。)以上となった場合に飽和と判定する。1画素の受光素子82は、上述したように、3×6のSPADで形成されており、照射光Lzのパルスrサイクル分(rは2以上の整数)に対する反射光Rzで最大p×q×r個のフォトンを検出できる。飽和判定部26は、rサイクル分の反射光Rzにおいて、s%以上、すなわちp×q×r×s/100個以上のフォトンを検出した場合に、その画素において受光信号が飽和していると判定する。ここで、sは、100より小さい予め定められた数であり、例えば95である。
 パルス幅検出部28は、受光信号が立ち上がり、予め定めた大きさになってから、その後、受光信号が立ち下がり、予め定めた大きさになるまでの時間をパルス幅として検出する。立ち下がり傾き検出部30は、受光信号が、立ち下がるときの受光信号の傾きを検出する。
 図3は、受光信号が飽和したときの受光信号を示す説明図である。受光信号が立ち上がり、飽和強度に至った位置を、ピークポイントPPと呼ぶ。パルス幅検出部28は、受光信号が、予め定められた閾値TH以上である期間の長さをパルス幅とする。なお、パルス幅の起点をスタートポイントSP、パルス幅の終点をエンドポイントEPと呼ぶ。立ち下がり傾きは、受光信号が立ち下がるときの傾きである。但し、受光信号が立ち下がるときの傾きを取得することは難しいので、立ち下がり傾き検出部30は、時間変化率を受光信号の立ち下がりの傾きとする。時間変化率は、受光信号の飽和強度と閾値THとの差を、受光信号がピークポイントPPに至ったタイミングから受光信号がエンドポイントEPに至ったタイミングまでの時間差で割った値である。
 図2の反射特性取得部32は、物体200の反射特性を取得する。物体200の反射特性とは、物体200の反射強度、または、反射率を意味する。物体200の反射強度は、物体200がはね返す反射光の絶対的な強度であり、発光部70から物体200までの距離が短いと大きくなる。反射率は、反射光Rzの強さを照射光の強さで除した値であり、発光部70から物体200までの距離に依存しない。
 背景光補正部34は、物体200の反射光Rzに対する背景光の影響を除く補正を実行する。反射面角度取得部36は、物体200の測距点における物体200の法線と、反射光Rzの為す角θ(以下「反射面角度θ」と呼ぶ)を取得する。反射面角度取得部36が反射面角度を取得する理由は、反射面角度により、反射光Rzの強さが異なってくるため、物体200の正味の反射光の強さを取得するためである。
 図4は、反射面角度θと受光信号との関係を示す説明図である。物体200の反射点における法線であるベクトルcと、受光部80から反射点に向かうベクトルであるセンサベクトルdの為す角である反射面角度が0°である場合、照射光Lzの方向と、物体200の表面の法線の方向がほぼ平行になる。その結果、物体200の反射光Rzの信号強度は大きい。一方、反射面角度θが0°でない場合、照射光Lzの方向と物体200の表面の法線の方向とは平行でない。その結果、照射光Lzは、物体200の表面に斜めに当たるため、物体200の反射光Rzの信号強度は、反射面角度θが0°の場合に比べて小さくなる。なお、反射光Rzの幅は広くなる。このため、CPU20は、反射面角度取得部36によって反射面角度θを取得し、反射面角度θを用いて受光信号の補正に用いる。この補正については、後述する。
 図2の茂み判定部38は、物体200上の反射点および反射点の周辺の隣接反射点までの距離および反射特性のバラツキを用いて物体200の測定点が茂みに含まれるか否かを判定する。物体検出部40は、物体200の反射特性と、物体200までの距離と、を用いて、物体200がどういうものか、例えば物体200が道路の白線なのか、を検出する。なお、物体200の反射特性を取得するが、物体200がどういうものか検出する必要が無ければ、物体検出部40は、省略可能である。
 図5は、CPU20が実行する処理フローチャートである。CPU20は、車両100が起動されると、図5に示す処理を繰り返し実行する。ステップS100では、CPU20は、反射点RPおよび反射点RPの回りの近接点NPを抽出する。ステップS100では、CPU20は、物体200の反射面角度を算出する。ステップS300では、CPU20は、受光信号の平均化を行う。ステップS400では、CPU20は、受光信号から背景光の影響を除く背景光補正を行う。ステップS500では、CPU20は、物体200の反射特性を取得する。ステップS600では、CPU20は、物体200の測定点茂みに含まれるか否か、すなわち物体200が茂みか否かを判定する。物体200が茂みである場合には、茂み補正を行う。ステップS700では、CPU20は、物体200が何であるか、検出を行う。CPU20が、物体200が何であるか検出しない場合には、CPU20は、ステップS700の処理を実行しなくてもよい。上記各ステップの詳細については、後述する。
 図6は、CPU20が実行するステップS100の詳しい説明図である。ステップS110では、CPU20は、物体200の反射点RPから反射してきた反射光Rzの受光信号を抽出する。ステップS120では、CPU20は、反射点RPの回りの隣接反射点ARPから反射してきた反射光Rzの受光信号を抽出する。図7に示すように、隣接反射点ARPは、反射点RPの回りの点である。隣接反射点ARPからの反射光は、受光部80上における反射点RPからの反射光を検知する画素の周囲の画素で検出される。図7に示す例では、隣接反射点ARPの範囲を、反射点RPを中心とした3×3の画素の範囲としているが、反射点RPを中心とした5×5の画素の範囲としてもよい。
 ステップS130では、CPU20は、距離算出部24に反射点RPまでの距離を算出させる。ステップS140では、CPU20は、距離算出部24に隣接反射点ARPまでの距離を算出させる。ステップS150では、CPU20は、反射点RPまでの距離と一定の距離差以下の隣接反射点ARPを近接点NPとして抽出し、記憶装置50に格納する。反射点RPと、反射点RPまでの距離と一定の距離差以下の隣接反射点ARPと、は同じ物体200に存在すると考えることができる。
 図8は、CPU20が実行するステップS200の詳しい説明図である。ステップS205では、CPU20は、反射面角度取得部36を用いて、左右方向の方向ベクトルである左右ベクトルaを求める。図9に示すように、左右ベクトルaは、反射点RPを左右から挟む近接点NPを結ぶベクトルである。CPU20は、それぞれの近接点NPまでの距離と、それぞれの近接点NPに対応する受光素子82の座標を用いて左右ベクトルaを算出できる。図8のステップS210では、CPU20は、反射面角度取得部36を用いて、上下方向の方向ベクトルである上下ベクトルbを求める。図9に示すように、上下ベクトルbは、反射点RPを上下から挟む近接点NPを結ぶベクトルである。CPU20は、それぞれの近接点NPまでの距離と、それぞれの近接点NPに対応する受光素子82の座標を用いて上下ベクトルbを算出できる。
 ステップS215では、CPU20は、反射面角度取得部36を用いて、左右ベクトルaと上下ベクトルbとから、反射点RPにおける法線ベクトルcを算出する。より具体的には、CPU20は、左右ベクトルaと上下ベクトルaとの外積を求めて、物体200の反射点における法線ベクトルcとする。すなわち、物体200の反射点における法線ベクトルcは、a×bとなる。
 ステップS220では、CPU20は、反射面角度取得部36を用いて、法線ベクトルcとセンサベクトルdの為す角θを算出し、角θを反射面角度とする。センサベクトルdは、反射点RPと受光素子82とを結ぶベクトルであり、CPU20は、反射点RPまでの距離と、反射点RPに対応する受光素子82の座標とを用いてセンサベクトルdを算出する。法線ベクトルcとセンサベクトルdの為す角θと、法線ベクトルcと、センサベクトルdと、の間には、c・d=|c|・|d|・cosθの関係があるので、CPU20は、この関係を用いて、角θ(反射面角度θ)を算出する。
 上記方法では、CPU20は、左右ベクトルaと上下ベクトルbを求め、左右ベクトルaと上下ベクトルbから法線ベクトルcを求め、法線ベクトルcとセンサベクトルdから反射面角度θを求めた。法線ベクトルcを求めるためのベクトルは、左右ベクトルaと上下ベクトルbでなくてもよい。例えば、左右方向、上下方向に対し斜めの2つのベクトルであってもよい。また、左右ベクトルaと上下ベクトルbのうちの一方のベクトルを用いて簡易に算出してもよい。
 図10に示すように、CPU20は、上下ベクトルbと、センサベクトルdとを用いて、反射面角度θを算出してもよい。ステップS230では、CPU20は、上下方向の3点を選定する。この3点は、反射点RPおよび反射点RPを上下から挟む2の近接点NPであってもよい。ステップS240では、CPU20は、選定した3点が直線上に並んでいるか否かを判定する。選定した3点が直線上に並んでいる場合には、CPU 20は、処理をステップS260に移行する。
 ステップS260では、CPU20は、選定した3点を通る上下ベクトルbと、センサベクトルdとの内積を求め、以下の式b・d=|b|・|d|・cos(θ+90°)の関係を用いて、反射面角度θを算出する。
 図11に示すように、CPU20は、選定した3点が直線上に並んでいるか否かを判定する。ステップS242では、CPU20は、3点P1、P2、P3の並び順を決定する。図12に示すように、CPU20は、点P2を中心として、上側が点P1、下側が点P3となるように3点P1、P2、P3の並び順を決定する。点P2は、例えば、反射点RPであり、点P1、P3は、近接点NPであってもよい。
 図11のステップS244では、CPU20は、発光部70が照射光Lzを発光してから、照射光Lzが点P1、P2、P3で反射し、その反射光Rzを受光部80が検知するまでの時間を取得する。そして、この時間に基づき、距離算出部24を用いて、距離Dist1、Dist2、Dist3を算出する。
 ステップS246では、CPU20は、受光部80から3点P1、P2、P3までの距離Dist1、Dist2、Dist3と、点P1、P2、P3に対応する受光素子82の座標と、を用いて3点P1、P2、P3の3次元座標を算出する。その上で、3点P1、P2、P3間の相互の間隔D12、D23、D31を算出する。なお、点P1、P2、P3の位置関係から間隔D31は、間隔D12、D23よりも大きい。
 ステップS248では、CPU20は、最も大きい間隔D31が、残りの2つの間隔D12、D23の和の0.8倍よりも大きいか否かを判定する。間隔D31が、間隔D12、D23の和の0.8倍よりも大きい場合には、3点P1、P2、P3が一直線上にあるとみなすことができるため、CPU20は、処理をステップS250に移行する。なお、3点P1、P2、P3が為す三角形を考慮すれば、間隔D31が、間隔D12、D23の和よりも大きくなることはない。一方、間隔D31が、間隔D12、D23の和の0.8倍よりも大きくない場合には、3点P1、P2、P3が一直線上にある可能性が低いため、処理をステップS256に移行する。
 ステップS250では、CPU20は、距離Dist1と、距離Dist2の差が予め定められた閾値Dth以下であり、かつ、距離Dist2と、距離Dist3の差が予め定められた閾値Dth以下であるか否かを判定する。距離Dist1と、距離Dist2の差が予め定められた閾値Dth以下であり、かつ、距離Dist2と、距離Dist3の差が予め定められた閾値Dth以下である場合には、CPU20は、処理をステップS252に移行する。一方、距離Dist1と、距離Dist2の差が予め定められた閾値Dthを超えている、あるいは、距離Dist2と、距離Dist3の差が予め定められた閾値Dthを超えている場合には、CPU20は、処理をステップS256に移行する。点P1、P2、P3が互いに離れすぎていないかを判定するためである。
 ステップS252では、CPU20は、点P1と点P2の間隔D12が、受光部80から点P2までの距離Dist2の0.02倍より大きく、かつ、点P2と点P3の間隔D23が、受光部80から点P2までの距離Dist2の0.02倍より大きいか否かを判定する。間隔D12が、距離Dist2の0.02倍より大きく、かつ、間隔D23が、距離Dist2の0.02倍より大きい場合には、CPU20は、処理をステップS254に移行する。一方、間隔D12が、距離Dist2の0.02倍以下である、あるいは、間隔D23が、距離Dist2の0.02倍以下である場合には、CPU20は、処理をステップS256に移行する。点P1、P2、P3が接近しすぎていると、反射面角度θを算出する際の精度が低くなり、点P1、P2、P3が直線上に存在しているとまで確立できないからである。
 ステップS254では、ステップS248、S250、S252における判定が全て「Yes」であることから、CPU20は、3点P1、P2、P3が直線上に存在すると判定する。一方、ステップS256では、CPU20は、3点P1、P2、P3が直線上に存在しないと判定する。
 図13は、物体200が道路上に引かれた白線である場合を示す。この場合、点P2を中心として、点P2の上方に点P1があり、点P2の下方に点P3があるように測定される。受光部80から点P1までの距離Dist1は、最も大きく、受光部80から点P2までの距離Dist2、受光部80から点P3までの距離Dist3の順に距離が小さくなっている。
 図14は、CPU20が実行するステップS300の詳しい説明図である。ステップS310では、CPU20は、反射点RPと近接反射点を抽出する。このとき、CPU20は、近接点NPとして、さらに、反射点RPにおける信号レートと近接点NPにおける信号レートとの差が閾値以下の点のみの近接点NPのみを抽出してもよい。
 図15は、信号レートを説明する説明図である。信号レートとは、背景光の影響を除いたSPADの有効範囲に対するSPADの反応率である。信号レートとは、受光信号の信号強度(ピーク強度)から背景光の強度を引いた値を、受光信号の最大信号強度(飽和強度)から背景光の強度を引いた値で除した値として算出される。すなわち、信号レートとは、受光信号の強度と背景光の強度との差分と、受光信号の飽和強度と背景光の強度との差分との強度比を意味する。
 図14のステップS320では、CPU20は、受光信号の強度を平均化する。具体的には、受光信号が飽和していない場合には、CPU20は、信号レートを平均化し、受光信号が飽和している場合には、受光信号のパルス幅、受光信号の立ち下がり傾きを平均化する。
 図16は、反射点(座標(h,v)の信号P(h,v)とその回りの近接点の座標(h-1,v-1)から(h+1,v+1)、但し反射点の座標(h、v)を除く)の信号P(h-1,v-1)からP(h+1,v+1)を示す。CPU20は、平均値Paveを以下の式により算出する。以下の式(1)から式(3)において9は、反射点と近接点の数の和である。
Figure JPOXMLDOC01-appb-M000001

 CPU20は、重み付け平均Pave2を以下の式により算出してもよい。
Figure JPOXMLDOC01-appb-M000002

 式(2)において、w(i,j)は重み付け係数であり、以下の式(3)を満たす。
Figure JPOXMLDOC01-appb-M000003
 図17は、CPU20が実行するステップS400の詳しい説明図である。ステップS410では、CPU20は、背景光補正部34を用いて背景光レートを取得する。図18は、背景光レートを説明する説明図である。背景光レートとは、背景光強度を0-1の範囲に規格化したものであり、背景光強度を信号強度の最大値(飽和強度)で除した値である。
 図17のステップS420では、CPU20は、背景光レートを用いて、入力パラメータ(受光信号のパルス幅、立ち下がり傾き、信号レート)を補正する。具体的には、CPU20は、以下に説明するように、受光信号が飽和している場合には、パルス幅と立ち下がりの傾きに対する背景光の影響を除去し、受光信号が飽和していない場合には、受光信号の強度に対する背景光の影響を除去する。
 図19は、背景光レートによる受光信号のパルス幅の補正を示す説明図である。図18のパルス幅係数は、背景光レートに対して測定した受光信号のパルス幅を何倍にするかを示している。図19に示す例では、背景光レートが0.5の時は、CPU20は、測定した受光信号のパルス幅を0.9倍にする。
 図20は、背景光レートによる受光信号の立ち下がり傾きの補正を示す説明図である。図20の立ち下がり傾き係数は、背景光レートに対して測定した受光信号の立ち下がり傾きを何倍にするかを示している。図20に示す例では、背景光レートが0.5の時は、CPU20は、測定した受光信号の立ち下がり傾きを0.6倍にする。
 図21は、背景光レートによる受光信号の信号レートの補正を示す説明図である。図21の信号レート係数は、背景光レートに対して測定した受光信号の信号レートを何倍にするかを示している。図21に示す例では、背景光レートが0.5の時は、CPU20は、測定した受光信号の信号レートを0.9倍にする。
 図22は、CPU20が実行するステップS500の詳しい説明図である。ステップS510では、CPU20は、受光信号が飽和しているか否かを判定する。上述したように、CPU20は、受光信号が飽和強度を超える場合、より具体的には、反射光Rzにおいて、p×qのs%以上のフォトンを検出した場合に受光信号が飽和強度を超えていると判定する。なお、数サイクル分の受光信号を積算してもよい。受光信号が飽和強度を超えている場合には、CPU20は、処理をステップS520に移行する。一方、受光信号が飽和強度以下の場合には、CPU20は、処理をステップS530に移行する。
 ステップS520では、CPU20は、受光信号のパルス幅、立ち下がり傾きの少なくとも一方を用いて、飽和時反射率RSを算出する。CPU20は、図23に示すように、受光信号のパルス幅から受光信号の信号強度の対数を取得する。受光信号のパルス幅と受光信号の信号強度との関係は、実験により、予め求められている。CPU20は、受光信号の信号強度の対数から、受光信号の信号強度を算出する。次いで、CPU20は、受光信号の信号強度と、物体200までの距離Distとを用いて、物体200の反射率を算出する。物体200の反射率は、受光信号の信号強度に比例し、物体200までの距離Distの二乗に比例する。なお、物体200までの距離Distが大きくなると、受光信号の信号強度は小さくなる。
 CPU20は、図24に示すように、受光信号の立ち下がり傾きから受光信号の信号強度の対数を取得する。受光信号の立ち下がり傾きと受光信号の信号強度との関係は、実験により、予め求められている。CPU20は、受光信号の信号強度の対数から、受光信号の信号強度を算出する。次いで、CPU20は、受光信号の信号強度と、物体200までの距離Distとを用いて、物体200の反射率を算出する。
 CPU20は、図23では、受光信号のパルス幅から受光信号の信号強度の対数を取得する。また、図24では、受光信号の立ち下がり傾きから受光信号の信号強度の対数を取得している。もとより、CPU20は、受光信号のパルス幅と立ち下がり傾きの両方を用いて受光信号の信号強度の対数を取得してもよい。
 ステップS530では、CPU20は、受光信号の信号レートを用いて、非飽和時反射率RNSを算出する。CPU20は、図25に示すように、受光信号の信号レートから受光信号の信号強度の対数を取得する。受光信号のパルス幅と受光信号の信号強度との関係は、実験により、予め求められている。CPU20は、受光信号の信号強度の対数から、受光信号の信号強度を算出する。次いで、CPU20は、受光信号の信号強度と、物体200までの距離Distとを用いて、物体200の反射率を算出する。なお、CPU20は、受光信号の信号強度と、受光信号のパルス幅とのうちの少なくとも一方を用いて物体200の反射率、反射特性を取得してもよい。
 ステップS540では、CPU20は、反射面角度θにより物体200の反射率を補正する。図26は、反射面角度θと補正係数の関係を示す説明図である。実線は、受光信号が飽和している場合を示し、破線は、受光信号が飽和していない場合を示している。CPU20は、反射面角度θに応じて、受光信号が飽和している場合、反射面角度が大きいとパルス幅が広がるので反射率を1より小さな倍率で小さく補正する。他方、受光信号が飽和していない場合、反射面角度が大きいと信号レートが小さくなるので反射率を1より大きな倍率で大きく補正する。図26に示す場合、反射面角度θが0°の場合、補正係数は1である。反射面角度θが45°の場合、受光信号が飽和している場合の補正係数は0.75であり、受光信号が飽和していない場合の補正係数は3である。
 図27は、CPU20が実行するステップS600の詳しい説明図である。ステップS610では、CPU20は、発光部70が照射光Lzを照射した照射先の物体200が茂みか否かを判定する。CPU20は、物体200が茂みであると判定した場合は、処理をステップS630に移行する。一方、CPU20は、物体200が茂みでないと判定した場合は、反射率補正を実行せずに終了する。
 物体200が茂みであるか否かを判断(ステップS610)は、以下のように行う。物体200が茂みである場合(図28)と、路面の白線である場合(図29)を例にあげて説明する。図28に示すように、物体200が茂みの場合、受光部80から測定点までの最小距離Distminと最大距離Distmaxとの距離差が大きい。受光部80から測定点までの距離が最小距離Distminとなる測定点は、最も下方にある訳でなく、最大距離Distmaxとなる測定点は、最も上方にある訳でもない。また、物体200の反射率が高い。
 図29に示すように、物体200が路面の白線である場合、受光部80から測定点までの距離が最小距離Distminとなる測定点は最も下方にある。一方、最大距離Distmaxとなる測定点は、最も上方にあり、その間の測定点までの距離は、単調増加している。
 図27のステップS610では、CPU20は、受光部80から測定点までの最小距離Distminと最大距離Distmax、その間の増加傾向、および反射率を用いて物体200が茂みか否かを判定する。CPU20は、以下の(1)、(2)のどちらでもない場合、茂みと判定する。
(1)路面様条件:受光部80から物体200までの距離の最小値Distminから最大値Distmaxにかけて距離が単調増加し、かつ、受光部80から物体200までの距離の最大値Distmaxと最小値Distminとの差が0.3mよりも大きい。
(2)低反射率・小距離差条件;反射率が60%以下、または、受光部80から物体200までの距離の最大値Distmaxと最小値Distminとの差が0.2m以下である。
 図30は、CPU20が実行する茂み判定(S610)を詳しく説明する説明図である。ステップS612とステップS614では、CPU20は、(1)の路面様条件を判定する。ステップS612では、CPU20は、受光部80から物体200までの距離の最小値Distminから最大値Distmaxにかけて距離が単調増加しているか否かを判定する。距離が単調増加している場合には、CPU 20は、処理をステップS614に移行する。一方、距離が単調増加していない場合には、処理をステップS616に移行する。ステップS614では、受光部80から物体200までの距離の最大値Distmaxと最小値Distminとの差が0.3mよりも大きいか否かを判定する。距離の最大値Distmaxと最小値Distminとの差が0.3mよりも大きい場合には、処理をステップS620に移行する。距離の最大値Distmaxと最小値Distminとの差が0.3mよりも大きくない場合には、処理をステップS616に移行する。ステップS612、S614のいずれをも満たす場合は、(1)の路面様条件を満たす場合である。なお、ステップS614における閾値0.3mは一例であり、0.1mから0.5mの間の値を採用してもよい。
 ステップS616とステップS618では、CPU20は、(2)の低反射率・小距離差条件を判定する。ステップS616では、CPU20は、反射率が60%以下であるか否かを判定する。反射率が60%以下の場合には、CPU20は、処理をステップS620に移行する。一方、反射率が60%を超える場合には、CPU20は、処理をステップS618に移行する。ステップS618では、距離の最大値Distmaxと最小値Distminとの差が0.2m以下であるか否かを判定する。距離の最大値Distmaxと最小値Distminとの差が0.2m以下の場合には、CPU20は、処理をステップS620に移行する。一方、距離の最大値Distmaxと最小値Distminとの差が0.2mを超える場合には、CPU20は、処理をステップS622に移行する。テップS616、S618のいずれかを持たす場合には、(2)の低反射率・小距離差条件を満たす場合である。ステップS620では、(1)のの路面様条件と、(2)の低反射率・小距離差条件の少なくとも一方を満たしている場合である。したがって、ステップS620では、CPU20は、物体200が茂みではないと判定する。一方、ステップS616、S618のいずれをも満たさない場合は、(1)の路面様条件を満たさず、かつ、(2)の低反射率・小距離差条件を満たさない場合である。したがって、ステップS622では、CPU20は、物体200が茂みであると判定する。なお、ステップS618における閾値0.2mは一例であり、ステップS614における閾値よりも小さい値であればよい。
 ステップS630では、CPU20は、反射率補正を実行する。具体的には、CPU20は、補正前の反射率に補正比率Rを乗ずる補正を行う。補正比率Rは、予め定められた値を上下5画素間に対応する測定点間の距離差で除した値である。なお、距離差が予め定められた距離差以下の場合には、CPU20は、反射率補正を実行しない。
 上記説明においては、具体的な数値を用いて説明しているが、数値は一例である。照射光Lzの強さ、分解能、受光素子82の感度が異なると、具体的な数値の値も異なる。
・変形例:
 図31は、立ち下がり傾き検出部30が受光信号の立ち下がり傾きを求める他の方法を示す説明図である。立ち下がり傾き検出部30は、飽和強度よりも小さい第1閾値TH1と、第1閾値TH1よりも小さい第2閾値TH2を設定する。立ち下がり傾き検出部30は、飽和強度を100%、背景光の強度を0%としたとき、第1閾値TH1が飽和強度の80%、第2閾値TH2が飽和強度の20%となるように、第1閾値TH1と第2閾値TH2を設定してもよい。また、第2閾値TH2は、パルス幅を求める際に用いられる閾値と同じ値であってもよい。受光信号は、立ち下がるときに、時刻t1で第1閾値TH1に立ち下がり(点P1)、時刻t2で第2閾値TH2に立ち下がる(点P2)。立ち下がり傾き検出部30は、受光信号が第1閾値TH1から第2閾値TH2に立ち下がるまでの時間t2-t1と、第1閾値TH1と第2閾値TH2の差と、を用いて、受光信号の立ち下がりの傾きを算出する。この方法によれば、立ち下がり傾き検出部30は、時刻t1、時刻t2を容易に検出できるので、受光信号の立ち下がりの傾きを容易に求めることができる。
 図32は、立ち下がり傾き検出部30が受光信号の立ち下がり傾きを求める他の方法を示す説明図である。立ち下がり傾き検出部30は、飽和強度よりも小さい第3閾値TH3を設定する。第3閾値TH3は、パルス幅を求める際に用いられる閾値と同じ値であってもよく、上述の第1閾値TH1、第2閾値TH2のいずれかと同じ値であってもよい。受光信号は、時刻t0で立ち下がり初め(点P0)、時刻t3で第1閾値TH3に立ち下がる(点P3)。立ち下がり初めの点Pは、受光信号の強度は、飽和強度の99%まで下がった点としてもよい。立ち下がり傾き検出部30は、受光信号が飽和強度から第3閾値TH3に立ち下がるまでの時間t3-t1と、飽和強度と第3閾値TH3の差と、を用いて、受光信号の立ち下がりの傾きを算出する。この方法によれば、立ち下がり傾き検出部30は、時刻t0、時刻t3を容易に検出できるので、受光信号の立ち下がりの傾きを容易に求めることができる。
 上記実施形態では、受光信号が飽和しているときは、受光信号のパルス幅、立ち下がり傾きの少なくとも一方を用いて、反射率を算出し(「飽和時算出方法」と呼ぶ。)受光信号が飽和していないときは、信号レートから反射率を算出している(「非飽和時算出方法」と呼ぶ。)。すなわち、受光信号が飽和しているときと、飽和していないときでは、反射率の算出方法が異なっている。
 図33は、受光信号が飽和しているときと飽和していないときの切り替わりでの受光信号の反射率の連続性を確保する方法を示す説明図である。反射特性取得部32は、受光信号が飽和している、飽和していないにかかわらず、飽和時算出方法を用いて飽和時反射率RSと、非飽和時算出方法を用いて非飽和時反射率RNSと、を算出する。受光信号が飽和しているか否かは、信号レートにより判断できる。信号レートが0.9までは、反射率として、非飽和時反射率RNSを用いる。信号レートが1以上のときは、反射率性として、飽和時反射率RSを用いる。信号レートが0.9から1までは、信号レートが大きくなるにしたがって、反射率に占める非飽和時反射率RNSの割合を徐々に減らし、飽和時反射率RSの割合を徐々に増加させていく。すなわち、受光信号が非飽和状態と飽和状態との間を遷移する領域では、反射特性取得部32は、反射率Rを、非飽和状態における非飽和時反射率RNSと飽和状態における飽和時反射率RSの間に漸次変化を持たせて切り替える。図33に示す例では、反射率Rは以下の式で示すことができる。
 R=(1-k)×RNS+k×RS (0≦t≦1) …(4)
 式(4)において、飽和時反射率RSの割合を示す変数kは以下の式(5)で表される。
k=(信号レート)×10-9 (0.9≦信号レート≦1) …(5)
 反射特性取得部32が、このように反射率を算出すれば、受光信号が飽和しているときと飽和していないときの切り替わりにおいて、非飽和時反射率RNSと飽和時反射率RSとが連続していない場合であっても、反射率Rの連続性を確保できる。上記例では、式(5)に示すように、信号レートと変数tとが線形の関係にあるとしたが、式(4)を満たせば、信号レートと変数tとは線形の関係になくてもよい。
 図34は、物体200の反射率が高い場合の反射光Rzの信号強度を示す説明図である。物体200の反射率が高い場合、反射光Rzの信号強度も強いため、反射光Rzが物体検出装置10で反射され、物体200に向かう。この反射光は、再度物体200に当たり物体200から返ってくる。すなわち、反射光Rzは、多重反射する。最初に返ってくる反射光を「第1反射光Rz1」、次に返ってくる反射光を「第2反射光Rz2」と呼ぶ。なお、物体200の反射率によっては、第3反射光Rz3、第4反射光Rz4等が生じる場合もある。
 先ず、物体200が、物体検出装置10から3m以遠に有り、物体検出装置10から物体200までの距離が大きい場合について説明する。この場合、図34の(C)に示すように、第1反射光Rz1により生じる第1パルスと、第2反射光Rz2により生じる第2パルスとは、重ならず、分離し、第1パルスのパルス幅は、十分に大きい。その結果、反射特性取得部32は、第1パルスのパルス幅を用いて、物体200の反射率を取得できる。なお、この反射率は、反射率の上限値となる。
 次に、物体検出装置10から物体200までの距離が1mと小さい場合について説明する。この場合、図34の(A)に示すように、第1反射光Rz1により生じる第1パルスが立ち下がる前に第2反射光Rz2により生じる第2パルスが立ち上がる。その結果、第1パルスと第2パルスとは合体し分離できなくなり、合体したパルスのパルス幅が十分に大きくなる。その結果、反射特性取得部32は、この合体したパルスのパルス幅を用いて、物体200の反射率を取得できる。この反射率は、反射率の上限値となる。
 物体検出装置10から物体200までの距離が2m程度の場合について説明する。この場合、図34の(B)に示すように、第1反射光Rz1により生じる第1パルスは立ち下がるが、完全に立ち下がる前に、第2反射光Rz2により生じる第2パルスが立ち上がる。そのため、パルス検出部28は、第1反射光Rz1により生じる第1パルスの信号強度の最も高い上澄み部分のパルス幅しか検出できない。この上澄み部分のパルス幅は、第1反射光Rz1により生じる第1パルスの本来のパルス幅よりも狭い。反射特性取得部32が、上澄み部分のパルス幅を用いて反射率を算出すると、物体200の反射率が小さく算出される。この場合、反射特性取得部32は、物体200の反射率を上限値とすればよい。
 以上のことから、反射特性取得部32は、以下の4つの条件を満たした場合には、物体200が、リフレクタなど非常に反射率の大きいものであると判断して、反射率を上限値と設定してもよい。
(a)照射光Lzを反射した物体200までの距離が予め定めた閾値以下である。
(b)パルス検出部28が、照射光Lzを反射した物体200までの距離に対応する第1パルスと、照射光Lzを反射した物体200までの距離の2倍に対応する第2パルスと、を検出した。
(c)第1パルスの信号強度が予め定めた閾値以上である。
(d)第2のパルスの信号強度が予め定めた閾値以上である。
 条件(a)の閾値は、例えば3mである。
 以上、この実施形態によれば、反射特性取得部32は、物体200が非常に反射率の大きいものである場合であっても、物体200の反射特性を取得できる。尚、検出される反射光Rzの波形は、射出された照射光Lzのパルス幅によっても影響を受ける。すなわち、距離による波形形状の違いは、絶対的なものではない。従って、検出に用いる照射光Lzのパルス幅や受光部80の分解能等により上記4つの条件の閾値を適宜定めればよい。例えば、上記説明では、条件(a)の閾値を、3mとしているが、照射光Lzのパルス幅や受光部80の分解能等により、例えば2.5m、3.5mなど、他の距離としてもよい。
 リフレクタは、車両100からレーザの反射波を用いて計測される物体200のうち、最も反射率の高いものであることが多い。このため、物体検出装置10による照射範囲Sにリフレクタがある場合、その反射率を、測定範囲における最大反射率として設定することで、受光信号が飽和しているか否かの判断に用いることができる。図34に示した例では、受光信号の強度は飽和していたが、リフレクタが照射範囲Sに存在しても、照射範囲Sにおけるリフレクタの位置などよっては、リフレクタからの受光信号が飽和していない場合もあり得る。こうした場合でも、以下に説明する手法を用いれば、リフレクタを抽出できる。
 図35は、受光信号が飽和していない場合でもリフレクタを検出可能な処理ルーチンを示すフローチャートである。この処理が開始されると、図示するように、まず計測処理が行なわれる(ステップS811)。計測処理は、既に説明したように、照射範囲Sに発光部70からレーザ光を照射し、照射範囲Sからの反射光を受光部80で受光し、照射範囲Sに亘って、照射したレーザ光に対する反射光の時間的な強度信号を取得する。
 照射範囲Sをスキャンして、各座標位置で取得した強度信号の中から、時間軸に沿った最も手前の、つまり物体検出装置10から見て一番近いところからの反射光としてピークを持つ信号であるエコーを抽出する(ステップS812)。エコーの抽出は、物体検出装置10から見て最も近いエコーまでの距離の取得を含む。このステップS811およびS812の処理を、まとめてステップS800とし、「エコー抽出処理」と呼ぶことがある。
 次に、こうして抽出したエコーについて、条件Aが成立しているかを判断する(ステップS813)。ここで、条件Aとは、
(i)照射光Lzを反射した物体200までの距離が予め定めた閾値以下であり、
(ii)反射光Rzは飽和していないが、その強度は所定値以上である、
というものである。この条件Aが満たされていれば、次に、その強度信号に、抽出されたエコーまでの距離のRL倍(RLは2以上の整数)の位置に、エコーが含まれているかを判断する(ステップS815)。照射範囲Sのある座標において検出された信号に複数のエコーが含まれており、最初に抽出されたエコーまでの距離のRL倍の位置に他のエコーがあると言う状況は、物体検出装置10見て最も近いエコーが物体からの反射光によるものであれば、通常は生じない。物体があれば、その背後に物体が存在しても、レーザ光の反射は得られないからである。図34の最下段に示したような、同じ座標位置において、整数倍の位置にエコーが生じるのは、以下の場合である。整数倍の位置のエコーは、交通標識のような再帰性反射板などからの反射光が、物体検出装置10内のレンズやミラーに反射して再度物体側に戻り、反射率の高いリフレクタなどによって反射されることで生じる。この場合、複数のエコーは、最初のエコーの時間、つまり最初の物体検出位置までの距離の整数倍の位置に並ぶ。
 そこで、複数のエコーがRL倍の位置に存在すると判断すると(ステップS815:「YES」)、このエコーを生じている物体は、リフレクタであると判断する(ステップS816)。そして、リフレクタと判断した部位の反射率を最高反射率として設定し(ステップS817)、「NEXT」に抜けて本処理ルーチンを終了する。なお、条件Aが成立していないとき(ステップS813:「NO」)や、複数のエコーがRL倍の位置に配列していないとき(ステップS815:「NO」)などは、「NEXT」に抜けて、本処理ルーチンを終了する。そのエコーはリフレクタによるものと判断しないからである。
 こうしたリフレクタの検出の一例を図36に示した。図示する例では、照射範囲Sに存在する道路標識のうち、遠方に存在する丸看板RJ2からの反射光は飽和しており、図34を用いて説明した判断により、リフレクタであると判定されている。他方、丸看板RJ2より車両100に近い位置に存在する角看板RJ1は、車両100に搭載された物体検出装置10からみると照射範囲Sの端に存在する。従って、レーザ光が角看板RJ1に入射する角度が、角看板RJ1の法線に対して大きな角度を持っている。このため、角看板RJ1が、再帰性反射板であるリフレクタであっても、その反射光強度はやや低く、飽和していない。しかし上記の条件Aおよび複数のエコーがRL倍の位置に存在するという条件を満たしているため、信号強度が飽和してない場合でも、これをリフレクタであると判断できる。
 図36に示した例では、遠方の丸看板RJ2からの反射光の信号強度が飽和しているので、丸看板RJ2からの反射光の反射率を最高反射率として扱うことができる。しかし、丸看板RJ2が存在しない場合には、信号強度が飽和している物体がないから、最高反射率を設定することができない。これに対して、図36に示した手法で判断すれば、リフレクタを検出できるので、このリフレクタからの反射光の信号強度を、照射範囲Sにおける最高反射率として設定できる。このため、最高反射率を規準とする他の物体の判別を容易に行なうことができる。
 リフレクタの検出と最高反射率の設定の更に他の例を、図37に示した。図示の処理におけるステップS821,S822は、図35に示したエコー抽出処理(ステップS800)の処理内容と同一であり、照射範囲S内の各座標においてエコーを抽出する。この例では、続いて、上述した条件Bが成立しているかを判断する(ステップS823)。この場合の条件Bは、
(i)照射光Lzを反射した物体200までの距離が予め定めた閾値以下であり、
(iia)反射光Rzの信号強度は飽和している、
というものである。条件Bが成立していれば、次に発光部70におけるレーザ光の出力の強度を低下する処理を行なう(ステップS824)。その後、同じ座標位置についてのエコー抽出処理(ステップS800)を再度行ない、反射光の信号強度が飽和しているか否かの判断を行なう(ステップS825)。飽和していれば、反射光を検出した対象はリフレクタであると判定し(ステップS826)、リフレクタと判断した部位の反射率を最高反射率として設定した上で(ステップS827)、「NEXT」に抜けて本処理ルーチンを終了する。なお、条件Bが成立していないとき(ステップS813:「NO」)や、エコーの信号強度が飽和していないとき(ステップS825:「NO」)などは、そのエコーはリフレクタによるものと判断せず、「NEXT」に抜けて、本処理ルーチンを終了する。
 この例では、物体200をリフレクタであるかを、同じ座標位置のエコーが時間軸上で整数倍の位置に存在するという条件は考慮せず、
(i)照射光Lzを反射した物体200までの距離が予め定めた閾値以下であり、
(iia)反射光Rzの信号強度は飽和しており、
(iii)照射光Lzの出力を低下させても、反射光Rzの信号強度は飽和したままである、
という条件で判断している。反射光の信号強度が飽和しているとき、発光部70による発光の強度を低下させても(ステップS824)、なお反射光の信号強度が飽和しているものは、再帰性反射板などのような、特定の方向に反射光を返すリフレクタであると判断できるからである。この手法によれば、特定の座標における物体200がリフレクタであるか否かを判断するのに、エコーが時間軸上でRL倍の位置に存在し、あるいは配列していることを調べる必要がなく、処理を簡略化できる。
 上記の処理では、出力低下処理(ステップS824)は、発光部70による照射光Lzの強度を低下することにより行なったが、出力低下処理は、他の手法でも可能である。例えば、物体検出装置10が受光部80からの信号の読み出す範囲、つまりエコーの検出対象領域ROIを広くすることでも実現できる。検出対象領域ROIを広くする処理は、本実施形態では、物体検出装置10の受光部80から受光信号を読み出す範囲を広くすることによって行なっている。なお、検出対象領域ROIを広くする処理は、スキャナ74を含む発光部70と受光部80とを直接ハードウェアにより制御して実現することも可能である。
B.第2実施形態:
 次に、第2実施形態での物体検出装置10Aが行なう処理について説明する。図38は、車両100に搭載されている第2実施形態の物体検出装置10Aの概略個宇背を示すブロック図である。この物体検出装置10Aは、第1実施形態の物体検出装置10と較べて、ビデオカメラ111とビデオカメラ111からの映像信号を取り込んで処理する画像処理部112を備える点で、相違している。第2実施形態のこれ以外のハードウェア構成は、第1実施形態と同様である。また、CPU20が実行するプログラムやそのプログラムの実行により実現する機能については、反射面角度取得部36Aを除いて、第1実施形態と同様である。
 ビデオカメラ111は、車両100の前面に設けられ、物体検出装置10Aがスキャンしている照射範囲Sを含む範囲を撮像し、その映像を画像処理部112に出力する。画像処理部112は、ビデオカメラ111が撮像した映像を解析し、画像に含まれる白線や路肩を抽出する可能を有する。ビデオカメラ111が撮像した映像から走行中の道路の路肩や走行レーンを示す白線などを抽出する技術は公知のものなので詳しい説明は省略する(例えば、特開2004-21723号公報参照)。画像処理部112はこうした路肩・白線検出の処理結果を、CPU20に出力し、反射面角度取得部36Aの処理に供する。
 CPU20は、図39に示す処理を実行する。この処理は、上述した第1実施形態における図22のステップS540の処理に相当する。この処理を開始すると、まず画像処理部112を用いて、ビデオカメラ111からの映像信号を入力し(ステップS831)、入力した映像信号に含まれる画像に基づいて、路肩・白線抽出処理を行なう(ステップS832)。路肩・白線抽出処理は、上述したように公知の手法なので詳しい説明は省略する。画像から、路肩・白線を抽出している一例を、図40に示した。この例では、検出した路肩HSDを破線で示している。
 次に、抽出した路肩や白線を対象物として、距離を測定する(ステップS834)。対象物までの距離DDは、物体検出装置10Aの機能を用いて特定可能である。その上で、物体検出装置10Aの発光部70,受光部80を用いた反射光の信号強度が、飽和しているか否かの判断を行なう(ステップS835)。飽和していないと判断した場合には、反射光を検出した対象物までの距離測定の結果を用いて、対象物の各位置における角度である反射面角度を計算する(ステップS836)。対象物の各位置のまでの距離が分かれば、受光部80等が設けられた位置(高さHH)とから、対象物上の特定の位置での法線nlに対する照射光Lzの角度である反射面角度θを知ることは容易である。この様子を、図41に例示した。ここでは、路肩や白線は、路面SOR上にあるとみなし、反射面角度θは、
  θ=90-tan(HH/DD)
として求めた。
 その上で、反射面角度θに応じて、非飽和時の反射率を補正する処理を行なう(ステップS837)。この補正処理は、第1実施形態において、図26を用いて説明したものと同様である。なお、補正処理は、反射面角度θが予め定めた角度、例えば45度以上の場合のみ行なうようにしてもよい。反射面角度θが小さい場合は、対象物までの距離が比較的短く、かつ照射光Lzが対象物表面の法線に近いので、反射光Rzの信号強度がもともと高いからである。こうした反射面角度θに応じた補正処理を行なった後、「NEXT」に抜けて、本処理ルーチンを終了する。
 以上説明した処理を行なえば、路肩や白線をビデオカメラ111が撮影した画像を基にして特定した上で、反射率の補正を行なうので、路面の反射率を求めるための処理を簡略化でき、反射率を求めるための計算量を減らすことができる。同様の処置は、例えば道路脇の長い壁やガードレールなどの反射率を求める場合にも適用できる。なお、上記の処理では、反射率を補正したが、反射強度を用いて処理を行なっている場合には、反射強度を補正するようにしてもよい。
 次に、図42を用いて、反射特性取得処理について説明する。図示する処理は、所定のインターバル、例えば100msec毎に繰り返し実行される。この処理は、処理に用いる反射特性、具体的には反射率や反射強度を、検出対象領域ROIの広狭を切り換えることで異ならせ、処理の目的や条件に応じたものを用いる、というものである。所定の時間毎に開始されるこの反射特性取得処理では、まず受光部80が照射範囲Sから読み出す範囲である検出対象領域ROIをデフォルトである狭い範囲に設定する処理を行なう(ステップS870)。
 次に、発光部70を用いた発光処理と受光部80を用いた受光処理とを行ない(ステップS871)、受光した信号に基づき、エコーを抽出する(ステップS873)。その上で、エコーから反射特性1を取得する(ステップS875)。反射特性1は、反射率または反射強度である。以下の説明では、反射率として説明するが、反射強度であっても、あるいは両者であっても差し支えない。
 次に、受光部80が照射範囲Sから読み出す範囲である検出対象領域ROIを広げる処理を行なう(ステップS877)。検出対象領域ROIは、デフォルトでは狭い領域とされているので、これを照射範囲Sを最大範囲とする広い領域に切り換えるのである。検出対象領域ROIを広くした上で、ステップS871~S875と同様に、発光部70を用いた発光処理と受光部80を用いた受光処理とを行なう(ステップS881)。その後、受光した信号に基づき、エコーを抽出し(ステップS883)、エコーから反射特性2を取得する(ステップS885)。
 以上の処理により、検出対象領域ROIを狭くした状態での反射特性1と、検出対象領域ROIを広くした状態での反射特性2とが、記憶装置50に保存される。反射特性2は、検出対象領域ROIを広くした状態で取得されているので、検出対象領域ROIが狭い状態で取得された反射特性1よりダイナミックレンジが広く、その分、反射光の信号強度は飽和しにくい。そこで、抽出されたエコーの時間軸上の値から、反射光を返した物体200までの距離について判別し(ステップS887)、距離に応じて反射特性1か反射特性2かのいずれを用いるかを設定する。具体的には、物体200までの距離が予め定めた閾値より大きい「遠距離」の場合は、反射特性1を用いるものとする(ステップS888)。他方、物体200までの距離が予め定めた閾値以下である「近距離」の場合は、反射特性2を用いるものとする(ステップS889)。以上の処理の後、「NEXT」に抜けて本処理ルーチンを終了する。
 以上説明した反射特性取得処理ルーチンを繰り返し実行することで、物体検出装置10Aは、常時、検出対象領域ROIの広狭を切り換えた状態で取得した反射特性1と反射特性2とを記憶装置50に保存する。このため、エコーから判別した物体200までの距離に応じて、反射光が飽和しにくい状態で得られた反射特性を用いることができる。検出対象領域ROIを広くしておけば、常に飽和しにくい状態となるが、ダイナミックレンジが大きくなり、遠距離の物体からの信号は弱くなってしまう。これに対して上記の処理を行なうことにより、遠距離の物体については検出対象領域ROIを狭くして、反射光の強度信号を強めて処理を行なうことができる。検出対象領域ROIを狭くして測定を行なうと、強度信号は飽和しやすくなるが、もともと遠距離からの反射光であるため、反射光の信号強度は弱く、飽和する可能性は低い。このため、反射率などを用いた処理において、強度信号が飽和した場合の手法、つまり図22のステップS520として示したパルス幅・立下がり傾きから飽和時反射率を算出する処理を回避できる可能性が高まる。他方、検出対象領域ROIを広くして測定を行なうと、強度信号は飽和し難くなるから、近距離からの反射光であって信号強度が強い場合でも、飽和する可能性を低下させられる。このため、反射率などを用いた処理において、強度信号が飽和していない非飽和時の手法、つまり図22のステップS530として示した信号レート(信号強度)から非飽和時反射率を算出する処理を実行する可能性が高まる。この結果、反射率を算出する処理を簡略化でき、また反射率の計算結果のバラツキを低減できる。なお、上記の処理では、反射率を用いたが、反射特性として反射強度を用いても同様である。また、上記の処理では、反射光の信号強度が飽和し難くするのに、検出対象領域ROIの広狭を切り換えたが、発光部70における発光強度を、動的に切り換えても同様の作用効果を得ることができる。
C.他の実施形態:
(1)本開示の一形態によれば、物体検出装置10が提供される。この物体検出装置10は、予め定められた照射範囲Sに向けて照射光Lzを発光する発光部70と、照射光Lzに対応する反射光Rzを受光する受光部80と、照射光Lzの発光から反射光Rzの受光までの時間を用いて、照射光Lzを反射した物体200までの距離を算出する距離算出部24と、受光部80から出力される反射光Rzに対応する受光信号が飽和しているか否かを判定する飽和判定部26と、予め定めた閾値における受光信号のパルス幅を検出するパルス幅検出部28と、受光信号の立ち下がりの傾きを検出する立ち下がり傾き検出部30と、物体200の反射強度と反射率の少なくとも一方を含む反射特性を取得する反射特性取得部32と、を備え、反射特性取得部32は、受光信号が飽和している場合には、パルス幅と立ち下がりの傾きの少なくとも一方を用いて反射特性を取得する。この形態の物体検出装置10によれば、受光信号の強度が受光部80の飽和領域にある場合にも物体200の反射光の強度(信号強度)の違いを検出することが可能となる。
(2)上記(3)の形態の物体検出装置10において、さらに、反射特性と物体200の照射光の反射点RPまでの距離と、を用いて物体200を検出する物体検出部40を備えてもよい。この形態によれば、物体200が何であるかを検出できる。
(3)上記(1)または(2)の形態の物体検出装置10において、立ち下がりの傾きは、受光信号が飽和強度に達したピークポイントPPと、受光信号が閾値に立ち下がったエンドポイントEPとの間の前記受光信号の時間変化率であってもよい。この形態の物体検出装置10によれば、受光信号の立ち下がりの傾きを簡易に算出できる。
(4)上記形態の物体検出装置10において、立ち下がり傾き検出部30は、飽和強度よりも小さい第1閾値TH1と、第1閾値よりも小さい第2閾値TH2を設定し、受光信号が第1閾値から第2閾値に立ち下がるまでの時間と、第1閾値と第2閾値の差と、を用いて、立ち下がりの傾きを算出してもよい。この形態の物体検出装置10によれば、受光信号の立ち下がりの傾きを簡易に算出できる。
(5)上記形態の物体検出装置10において、立ち下がり傾き検出部30は、飽和強度よりも小さい第3閾値TH3を設定し、受光信号が飽和強度から立ち下がる時間から第3閾値TH3に立ち下がるまでの時間と、飽和強度と第3閾値TH3の差と、を用いて、立ち下がりの傾きを算出してもよい。この形態の物体検出装置10によれば、受光信号の立ち下がりの傾きを簡易に算出できる。
(6)上記(1)から(5)の形態の物体検出装置10において、反射特性取得部32は、パルス幅および立ち下がりの傾きを平均化してから反射特性を取得してもよい。この形態の物体検出装置10によれば、パルス幅、立ち下がりの傾きのバラツキの影響を抑制できる。
(7)上記(1)から(6)の形態の物体検出装置10において、反射特性取得部32は、受光信号が飽和していない場合には、受光信号の強度と、パルス幅とのうちの少なくとも一方を用いて反射特性を取得してもよい。この形態の物体検出装置10によれば、受光信号が飽和していない場合には、受光信号の強度やパルス幅を容易に測定できるので、受光信号の強度から反射特性を容易に取得できる。
(8)上記形態の物体検出装置10において、反射特性取得部32は、受光信号が飽和していない場合には、受光信号の強度と背景光の強度との差分と、受光信号の飽和強度と前記背景光の強度との差分との強度比である信号レートを用いて反射特性を取得してもよい。この形態の物体検出装置10によれば、背景光の影響を除いて、物体200の反射特性を取得できる。
(9)上記形態の物体検出装置10において、反射特性取得部32は、受光信号が非飽和状態と飽和状態との間を遷移する領域では、反射特性を、非飽和状態における反射特性と飽和状態における反射特性との間に漸次変化を持たせて切り替えてもよい。この形態の物体検出装置10によれば、非飽和状態と飽和領域における反射特性の連続性を確保できる。
(10)上記形態の物体検出装置10において、反射特性取得部32は、受光信号の強度を平均化してから反射特性を取得してもよい。この形態の物体検出装置10によれば、受光信号の強度のバラツキの影響を抑制できる。
(11)上記(1)から(10)の形態の物体検出装置10において、反射特性は、物体200の反射強度と反射率の一方であってもよい。
(12)上記(1)から(11)の形態の物体検出装置10において、さらに、受光信号から背景光の影響を除去する補正を行う背景光補正部34を備え、背景光補正部34が受光信号から背景光の影響を除去する補正を行ってから、反射特性取得部32が反射特性を取得してもよい。昼と夜では、背景光に強さが異なり、受光信号の強度が異なってくる。この形態の物体検出装置10によれば、背景光の影響を除いて、物体200の反射特性を取得できる。
(13)上記形態の物体検出装置10において、背景光補正部34は、受光信号が飽和している場合には、パルス幅と立ち下がりの傾きに対する背景光の影響を除去し、受光信号が飽和していない場合には、受光信号の強度と、前記パルス幅と、のうち少なくとも一方に対する背景光の影響を除去してもよい。
(14)上記(1)から(13)の形態の物体検出装置10において、さらに、物体200の方向と、物体200における反射面の法線と、の為す角度を反射面角度θとして取得する反射面角度取得部36を備え、反射特性取得部32は、反射面角度θを用いて、反射特性を補正してもよい。照射光が物体200の表面に当たる角度(反射面角度θ)により、受光部80の方向にはね返る反射光の成分の強さが異なる。この形態の物体検出装置10によれば、受光信号から反射面角度の影響を除き、物体200の反射特性を取得できる。
(15)上記形態の物体検出装置10において、反射特性取得部32は、受光信号が飽和していない場合には、反射面角度θが大きいほど受光信号の強度を大きくする補正を行い、受光信号が飽和している場合には、反射面角度θが大きいほど受光信号の強度を小さくする補正を行ってもよい。この形態の物体検出装置10によれば、受光信号に対する反射面角度θの影響を取り除くことができる。
(16)上記形態の物体検出装置10において、反射面角度取得部36は、物体200における反射点RPを上下から挟む2つの近接点NPの間の方向ベクトルと、物体200における反射点RPを左右から挟む2つの近接点NPの間の方向ベクトルと、のうちの少なくとも一方の方向ベクトルと、反射点RPから受光部80への方向を示すセンサベクトルと、を用いて、反射面角度θを取得してもよい。
(17)上記形態の物体検出装置10において、さらに、受光部80から反射点RPおよび反射点RPの周辺の隣接反射点ARPまでの距離および反射特性のバラツキを用いて、反射点NPが茂みに含まれるか否かを判定する茂み判定部38を備え、反射点RPが茂みに含まれる場合には、反射特性取得部32は、受光部80から、反射点RPおよび隣接反射点ARPまでの距離のバラツキに応じて、反射特性を下方に補正してもよい。茂みは、反射率が高い。この形態の物体検出装置10によれば、物体が茂みの場合、反射特性を下方に補正できる。
(18)上記(1)から(17)の形態の物体検出装置10において、照射光Lzを反射した物体200までの距離が予め定めた閾値以下であり、パルス検出部28が、照射光Lzを反射した物体200までの距離に対応する第1のパルスと、照射光を反射した物体200までの2倍の距離に対応する第2のパルスと、を検出し、第1のパルスの信号強度が予め定めた閾値以上であり、第2のパルスの信号強度が予め定めた閾値以上である、場合には、前記反射特性取得部は前記反射率を予め定めた上限値として取得してもよい。この形態によれば、反射特性取得部32は、物体200の反射率が大きく多重反射が生じた場合にも物体200の反射特性を取得できる。
(19)上記形態の(1)~(18)の物体検出装置において、更に、前記受光部上の所定の位置において、前記照射光を反射した前記物体までの距離に対応する第1の受光信号と、前記第1の受光信号から求められる前記物体までの距離のRL倍(RLは、2以上の整数)の距離に対応する第2の受光信号とに基づいて、前記第1の受光信号に対応する位置の前記物体が、リフレクタであると判断するリフレクタ検出部を備える、ものとしてもよい。こうすれば、検出した物体がリフレクタである場合、これを容易に判定できる。
(20)上記形態の(1)~(19)の物体検出装置において、更に、前記反射光の強度または前記反射光に対応する受光信号の検出の感度の少なくとも一方を低下させる低下部と、前記飽和判定部が、前記照射光を反射した前記物体までの距離に対応する前記受光信号が飽和していると判定したとき、前記反射光の強度または前記反射光に対応する前記受光信号の検出の感度の少なくとも一方を低下させ、当該低下によっても、前記受光信号が飽和したままの場合、前記受光信号に対応する位置の前記物体は、リフレクタであると判断するリフレクタ検出部と、を備えるものとしてもよい。この場合にも、検出した物体がリフレクタである場合、これを容易に判定できる。低下部は、発光部の出力を低下させる構成や、受光部の受光感度を低下させる構成、あるいは照射光の検出対象領域を広げる構成など種々の構成が採用可能である。もとよりこれらを複合的に実施してもよい。
(21)上記形態の(1)~(20)の物体検出装置において、更に、前記物体検出装置が前記物体を検出する領域内の少なくとも一部について、前記検出された物体の位置または前記物体上の前記受光信号を解析して、前記物体の方向と、前記物体における反射面の法線と、の為す角度である反射面角度を解析する反射面角度解析部と、前記受光信号が飽和しておらず、かつ前記解析した反射面角度が予め定めた角度閾値より大きい場合には、前記反射特性取得部における前記物体の反射強度と反射率との少なくとも一方を、前記反射面角度が前記角度閾値以下の場合より高い値に補正する補正部と、を備えるものとしてもよい。こうすれば、路面や白線などを容易に特定できる。反射面角度を解析するための物体の位置の解析は、カメラなどの撮像装置が撮像した画像に基づいて行なってもよい。
(22)上記形態の(1)~(21)の物体検出装置において、更に、前記飽和判定部が、前記照射光を反射した前記物体までの距離に対応する前記受光信号が飽和していると判定したとき、前記反射光の強度または前記反射光に対応する前記受光信号の検出の感度の少なくとも一方を低下させて、前記受光信号の飽和の程度を緩和する低下部を備えるものとしてもよい。こうすれば、受光信号の飽和の程度を緩和でき、反射特性の演算におけるバラツキを低減できる。低下部は、発光部の出力を低下させる構成や、受光部の受光感度を低下させる構成、あるいは照射光の検出対象領域を広げる構成など種々の構成が採用可能である。もとよりこれらを複合的に実施してもよい。
(23)上記形態の物体検出装置において、前記低下部は、距離検出の対象となる領域である検出対象領域を少なくとも2段階に切り換えることで、前記反射光に対応する前記受光信号の検出の感度を変更し、前記切り換えにより、前記反射特性取得部に、精度の高い側の反射特性を取得させるものとしてもよい。こうすれば、検出対象領域を切り換えるだけで、精度の高い物体の検出を行なうことができる。また、切換を動的に行なえば、いつでも精度の高い検出を実施できる。
(24)本開示の一形態によれば、物体検出装置10における物体検出方法が提供される。この物体検出方法は、予め定められた照射範囲Sに向けて照射光Lzを発光し、照射光Lzに対応する反射光Rzを受光し、照射光Lzの発光から反射光Rzの受光までの時間を用いて、照射光Lzを反射した物体200までの距離を算出し、反射光Rzに対応する受光信号が飽和しているか否かを判定し、予め定めた閾値における受光信号のパルス幅を検出し、受光信号の立ち下がりの傾きを検出し、受光信号が飽和している場合には、パルス幅と立ち下がりの傾きのうちの少なくとも一方を用いて反射特性を算出する。この形態の物体検出方法によれば、反射光Rzから得られる信号強度が反射光Rzを受光する受光部80の飽和領域にある場合にも物体200の反射光の強度(信号強度)の違いを検出することが可能となる。
(25)上記形態の物体検出方法において、受光信号が飽和していない場合には、受光信号の強度を用いて反射特性を取得してもよい。この形態の物体検出方法によれば、受光信号が飽和していない場合には、受光信号の強度を容易に測定できるので、受光信号の強度から反射特性を容易に取得できる。
 本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリーを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の制御部及びその手法は、一つ以上の専用ハードウエア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の制御部及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリーと一つ以上のハードウエア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。
 本開示は、上述の各実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した形態中の技術的特徴に対応する各実施形態中の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。

Claims (25)

  1.  物体からの反射光により物体を検出する物体検出装置(10)であって、
     予め定められた照射範囲に向けて照射光を発光する発光部(70)と、
     前記照射光に対応する反射光を受光する受光部(80)と、
     前記照射光の発光から前記反射光の受光までの時間を用いて、前記照射光を反射した物体までの距離を算出する距離算出部(24)と、
     前記受光部から出力される前記反射光に対応する受光信号が飽和しているか否かを判定する飽和判定部(26)と、
     予め定めた閾値における前記受光信号のパルス幅と前記受光信号の立ち下がりの傾きの少なくとも一方を検出するパルス検出部(28、30)と、
     前記受光信号の立ち下がりの傾きを検出する立ち下がり傾き検出部(30)と、
     前記物体の反射強度と反射率の少なくとも一方を含む反射特性を取得する反射特性取得部(32)と、
     を備え、
     前記反射特性取得部は、前記受光信号が飽和している場合には、前記パルス幅と前記立ち下がりの傾きの少なくとも一方を用いて前記反射特性を取得する、物体検出装置。
  2.  請求項1に記載の物体検出装置であって、さらに、
     前記反射特性と前記物体の前記照射光の反射点までの距離と、を用いて前記物体を検出する物体検出部(40)を備える、物体検出装置。
  3.  請求項1または請求項2に記載の物体検出装置であって、
     前記立ち下がりの傾きは、前記受光信号が飽和強度に達したピークポイント(PP)と、前記受光信号が前記閾値に立ち下がったエンドポイント(EP)との間の前記受光信号の時間変化率である、物体検出装置。
  4.  請求項3に記載の物体検出装置であって、
     前記立ち下がり傾き検出部は、
      前記飽和強度よりも小さい第1閾値と、前記第1閾値よりも小さい第2閾値を設定し、
      前記受光信号が前記第1閾値から前記第2閾値に立ち下がるまでの時間と、前記第1閾値と前記第2閾値の差と、を用いて、前記立ち下がりの傾きを算出する、
     物体検出装置。
  5.  請求項3に記載の物体検出装置であって、
     前記立ち下がり傾き検出部は、
      前記飽和強度よりも小さい第3閾値を設定し、
      前記受光信号が前記飽和強度から立ち下がる時間から前記第3閾値に立ち下がるまでの時間と、前記飽和強度と前記第3閾値の差と、を用いて、前記立ち下がりの傾きを算出する、
     物体検出装置。
  6.  請求項1または請求項2に記載の物体検出装置であって、
     前記反射特性取得部は、前記パルス幅と前記立ち下がりの傾きの少なくとも一方を平均化してから前記反射特性を取得する、物体検出装置。
  7.  請求項1または請求項2に記載の物体検出装置であって、
     前記反射特性取得部は、前記受光信号が飽和していない場合には、前記受光信号の強度と、前記パルス幅と、のうち少なくとも一方を用いて前記反射特性を取得する、物体検出装置。
  8.  請求項7に記載の物体検出装置であって、
     前記反射特性取得部は、前記受光信号が飽和していない場合には、前記受光信号の強度と背景光の強度との差分と、前記受光信号の飽和強度と前記背景光の強度との差分との強度比を用いて前記反射特性を取得する、
     物体検出装置。
  9.  請求項7に記載の物体検出装置であって、
     前記反射特性取得部は、
      前記受光信号が非飽和状態と飽和状態との間を遷移する領域では、前記反射特性を、前記非飽和状態における前記反射特性と前記飽和状態における前記反射特性との間に漸次変化を持たせて切り替える、物体検出装置。
  10.  請求項7に記載の物体検出装置であって、
     前記反射特性取得部は、前記受光信号の強度を平均化してから前記反射特性を取得する、物体検出装置。
  11.  請求項1または請求項2に記載の物体検出装置であって、
     前記反射特性は、前記物体の前記反射強度と前記反射率の一方である、物体検出装置。
  12.  請求項1または請求項2に記載の物体検出装置であって、さらに、
     前記受光信号から背景光の影響を除去する補正を行う背景光補正部(34)を備え、
     前記背景光補正部が前記受光信号から背景光の影響を除去する補正を行ってから、前記反射特性取得部が前記反射特性を取得する、物体検出装置。
  13.  請求項12に記載の物体検出装置であって、
     前記背景光補正部は、
      前記受光信号が飽和している場合には、前記パルス幅と前記立ち下がりの傾きに対する背景光の影響を除去し、
      前記受光信号が飽和していない場合には、前記受光信号の強度と、前記パルス幅と、のうち少なくとも一方に対する背景光の影響を除去する、物体検出装置。
  14.  請求項1または請求項2に記載の物体検出装置であって、さらに、
     前記物体の方向と、前記物体における反射面の法線と、の為す角度を反射面角度として取得する反射面角度取得部(36)を備え、
     前記反射特性取得部は、前記反射面角度を用いて、前記反射特性を補正する、物体検出装置。
  15.  請求項14に記載の物体検出装置であって、
     前記反射特性取得部は、
      前記受光信号が飽和していない場合には、前記反射面角度が大きいほど前記受光信号の強度を大きくする補正を行い、
      前記受光信号が飽和している場合には、前記反射面角度が大きいほど前記受光信号の強度を小さくする補正を行う、物体検出装置。
  16.  請求項14に記載の物体検出装置であって、 前記反射面角度取得部は、
      前記物体における前記照射光の反射点を上下から挟む2つの近接点の間の方向ベクトルと、前記物体における前記反射点を左右から挟む2つの近接点の間の方向ベクトルと、のうちの少なくとも一方の方向ベクトルと、
      前記反射点から前記受光部への方向を示すセンサベクトルと、
     を用いて、前記反射面角度を取得する、物体検出装置。
  17.  請求項16に記載の物体検出装置であって、さらに、
     前記受光部から前記反射点および前記反射点の周辺の隣接反射点までの距離および前記反射特性のバラツキを用いて、前記反射点が茂みに含まれるか否かを判定する茂み判定部(38)を備え、
     前記反射点が前記茂みに含まれる場合には、前記反射特性取得部は、前記受光部から、前記反射点および前記隣接反射点までの距離のバラツキに応じて、前記反射特性を下方に補正する、物体検出装置。
  18.  請求項1または請求項2に記載の物体検出装置であって、
     前記照射光を反射した前記物体までの距離が予め定めた閾値以下であり、
     前記パルス検出部が、前記照射光を反射した前記物体までの距離に対応する第1のパルスと、前記照射光を反射した前記物体までの2倍の距離に対応する第2のパルスと、を検出し、
     前記第1のパルスの信号強度が予め定めた閾値以上であり、
     前記第2のパルスの信号強度が予め定めた閾値以上である、
     場合には、前記反射特性取得部は前記反射率を予め定めた上限値として取得する、物体検出装置。
  19.  請求項1または請求項2に記載の物体検出装置であって、更に、
     前記受光部上の所定の位置において、前記照射光を反射した前記物体までの距離に対応する第1の受光信号と、前記第1の受光信号から求められる前記物体までの距離のRL倍(RLは、2以上の整数)の距離に対応する第2の受光信号とに基づいて、前記第1の受光信号に対応する位置の前記物体が、リフレクタであると判断するリフレクタ検出部を備える、物体検出装置。
  20.  請求項1または請求項2に記載の物体検出装置であって、更に、
     前記反射光の強度または前記反射光に対応する受光信号の検出の感度の少なくとも一方を低下させる低下部と、
     前記飽和判定部が、前記照射光を反射した前記物体までの距離に対応する前記受光信号が飽和していると判定したとき、前記反射光の強度または前記反射光に対応する前記受光信号の検出の感度の少なくとも一方を低下させ、当該低下によっても、前記受光信号が飽和したままの場合、前記受光信号に対応する位置の前記物体は、リフレクタであると判断するリフレクタ検出部と、
     を備える、物体検出装置。
  21.  請求項1または請求項2に記載の物体検出装置であって、更に、
     前記物体検出装置が前記物体を検出する領域内の少なくとも一部について、前記検出された物体の位置または前記物体上の前記受光信号を解析して、前記物体の方向と、前記物体における反射面の法線と、の為す角度である反射面角度を解析する反射面角度解析部と、
     前記受光信号が飽和しておらず、かつ前記解析した反射面角度が予め定めた角度閾値より大きい場合には、前記反射特性取得部における前記物体の反射強度と反射率との少なくとも一方を、前記反射面角度が前記角度閾値以下の場合より高い値に補正する補正部と、
     を備える、物体検出装置。
  22.  請求項1または請求項2に記載の物体検出装置であって、更に、
     前記飽和判定部が、前記照射光を反射した前記物体までの距離に対応する前記受光信号が飽和していると判定したとき、前記反射光の強度または前記反射光に対応する前記受光信号の検出の感度の少なくとも一方を低下させて、前記受光信号の飽和の程度を緩和する低下部を備える、物体検出装置。
  23.  前記低下部は、前記照射範囲を少なくとも2段階に切り換えることで、前記反射光に対応する前記受光信号の検出の感度を変更し、前記切り換えにより、前記反射特性取得部に、精度の高い側の反射特性を取得させる、請求項22に記載の物体検出装置。
  24.  物体検出装置における物体検出方法であって、
     予め定められた照射範囲に向けて照射光を発光し、
     前記照射光に対応する反射光を受光し、
     前記照射光の発光から前記反射光の受光までの時間を用いて、前記照射光を反射した物体までの距離を算出し、
     前記反射光に対応する受光信号が飽和しているか否かを判定し、
     予め定めた閾値における前記受光信号のパルス幅を検出し、
     前記受光信号の立ち下がりの傾きを検出し、
     前記受光信号が飽和している場合には、前記パルス幅と前記立ち下がりの傾きのうちの少なくとも一方を用いて反射特性を算出する、物体検出方法。
  25.  請求項24に記載の物体検出方法であって、
     前記受光信号が飽和していない場合には、前記受光信号の強度を用いて前記反射特性を取得する、物体検出方法。
PCT/JP2023/008855 2022-03-23 2023-03-08 物体検出装置および物体検出方法 WO2023181947A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2022047091 2022-03-23
JP2022-047091 2022-03-23
JP2023028101A JP2023143755A (ja) 2022-03-23 2023-02-27 物体検出装置および物体検出方法
JP2023-028101 2023-02-27

Publications (1)

Publication Number Publication Date
WO2023181947A1 true WO2023181947A1 (ja) 2023-09-28

Family

ID=88100751

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/008855 WO2023181947A1 (ja) 2022-03-23 2023-03-08 物体検出装置および物体検出方法

Country Status (1)

Country Link
WO (1) WO2023181947A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002022827A (ja) * 2000-07-13 2002-01-23 Denso Corp 物体認識方法及び装置、記録媒体
JP2012237720A (ja) * 2011-05-13 2012-12-06 Sokkia Topcon Co Ltd 光波距離計
JP2012237625A (ja) * 2011-05-11 2012-12-06 Honda Motor Co Ltd 物体距離検出装置
JP2015219120A (ja) * 2014-05-19 2015-12-07 パナソニックIpマネジメント株式会社 距離測定装置
JP2021139625A (ja) * 2020-03-02 2021-09-16 三菱電機株式会社 物体検知装置
JP2021169944A (ja) * 2020-04-15 2021-10-28 株式会社デンソー 光測距装置
JP2022506428A (ja) * 2018-11-02 2022-01-17 ウェイモ エルエルシー レーザービームの入射角の計算および反射率推定へのその応用
JP2022125966A (ja) * 2021-02-17 2022-08-29 株式会社デンソー 測距補正装置、測距補正方法、測距補正プログラム、および測距装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002022827A (ja) * 2000-07-13 2002-01-23 Denso Corp 物体認識方法及び装置、記録媒体
JP2012237625A (ja) * 2011-05-11 2012-12-06 Honda Motor Co Ltd 物体距離検出装置
JP2012237720A (ja) * 2011-05-13 2012-12-06 Sokkia Topcon Co Ltd 光波距離計
JP2015219120A (ja) * 2014-05-19 2015-12-07 パナソニックIpマネジメント株式会社 距離測定装置
JP2022506428A (ja) * 2018-11-02 2022-01-17 ウェイモ エルエルシー レーザービームの入射角の計算および反射率推定へのその応用
JP2021139625A (ja) * 2020-03-02 2021-09-16 三菱電機株式会社 物体検知装置
JP2021169944A (ja) * 2020-04-15 2021-10-28 株式会社デンソー 光測距装置
JP2022125966A (ja) * 2021-02-17 2022-08-29 株式会社デンソー 測距補正装置、測距補正方法、測距補正プログラム、および測距装置

Similar Documents

Publication Publication Date Title
KR101787996B1 (ko) 차선 추정 장치 및 그 방법
EP3111165B1 (en) Distance measuring device and parallax calculation system
JP6477083B2 (ja) 光学的測距装置
CN108140323B (zh) 用于机动车中的环境检测时改进的数据融合的方法和设备
CN111742241A (zh) 光测距装置
WO2020009011A1 (ja) 光測距装置
US11961306B2 (en) Object detection device
JP2007248146A (ja) レーダ装置
JP7452069B2 (ja) 道路勾配推定装置、道路勾配推定システムおよび道路勾配推定方法
JP5979020B2 (ja) 物体認識装置
WO2023181947A1 (ja) 物体検出装置および物体検出方法
JP2023143755A (ja) 物体検出装置および物体検出方法
JP3690260B2 (ja) 車間距離計測方法
JP7375838B2 (ja) 測距補正装置、測距補正方法、測距補正プログラム、および測距装置
JP7251328B2 (ja) 物体認識装置および物体認識方法
US20230384436A1 (en) Distance measurement correction device, distance measurement correction method, and distance measurement device
US20240230899A9 (en) Distance measurement device and distance measurement method
US20220404499A1 (en) Distance measurement apparatus
JP7528866B2 (ja) 軸ずれ推定装置
WO2021166912A1 (ja) 物体検出装置
JP2023010254A (ja) 測距装置および測距方法
EP4303615A1 (en) Lidar system and method to operate
JP7064389B2 (ja) 車両計測装置及び車両計測プログラム
WO2023171659A1 (ja) 情報処理装置、測距システム、制御方法、プログラム及び記憶媒体
JP2019003382A (ja) 画素処理装置、プログラムおよび画素処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23774546

Country of ref document: EP

Kind code of ref document: A1