WO2019097731A1 - 障害物認識装置および障害物認識方法 - Google Patents

障害物認識装置および障害物認識方法 Download PDF

Info

Publication number
WO2019097731A1
WO2019097731A1 PCT/JP2017/041720 JP2017041720W WO2019097731A1 WO 2019097731 A1 WO2019097731 A1 WO 2019097731A1 JP 2017041720 W JP2017041720 W JP 2017041720W WO 2019097731 A1 WO2019097731 A1 WO 2019097731A1
Authority
WO
WIPO (PCT)
Prior art keywords
detection data
sensor
data
time
obstacle recognition
Prior art date
Application number
PCT/JP2017/041720
Other languages
English (en)
French (fr)
Inventor
公司 飯田
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to US16/753,631 priority Critical patent/US11465643B2/en
Priority to JP2019553679A priority patent/JP6818907B2/ja
Priority to PCT/JP2017/041720 priority patent/WO2019097731A1/ja
Priority to CN201780096758.1A priority patent/CN111417869A/zh
Priority to DE112017008157.2T priority patent/DE112017008157T5/de
Publication of WO2019097731A1 publication Critical patent/WO2019097731A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0011Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4043Lateral speed

Definitions

  • the present invention relates to an obstacle recognition apparatus and an obstacle recognition method that perform obstacle recognition using an on-vehicle sensor.
  • an obstacle recognition device which recognizes obstacles around a vehicle by combining a plurality of sensor information (see, for example, Patent Document 1).
  • the obstacle recognition device of Patent Document 1 includes a front camera and a millimeter wave radar as sensors.
  • the forward camera acquires first parameter information on the obstacle
  • the millimeter wave radar acquires second parameter information on the obstacle.
  • the obstacle recognition device of Patent Document 1 calculates the amount of axial deviation of the azimuth angle of the front camera or the millimeter wave radar based on the first parameter information and the second parameter information, and uses the calculated amount of axial deviation. , Offset the off-axis of the azimuth angle of the front camera or millimeter wave radar.
  • Sensors mounted on vehicles include cameras, millimeter wave radars, laser radars, ultrasonic sensors, infrared sensors, and the like.
  • detection errors hereinafter referred to as bias errors
  • the bias error is difficult to estimate because it may vary with time depending on the traveling environment of the vehicle.
  • the conventional obstacle recognition device does not assume this bias error. Therefore, the conventional obstacle recognition device has a problem that even if a plurality of sensors actually detect the same object, they are erroneously recognized as separate objects due to a bias error between the sensors.
  • the present invention has been made to solve such a problem, and its object is, in fact, when multiple sensors detect the same object, without erroneously recognizing as separate objects. It is an object of the present invention to provide an obstacle recognition device and an obstacle recognition method capable of accurately identifying whether the object is the same object or not.
  • An obstacle recognition apparatus includes a first sensor and a second sensor for detecting an object in the vicinity of a vehicle, first detection data regarding a first object detected by the first sensor, and a second sensor
  • a calculation unit that calculates an index value for identifying whether or not the first object and the second object are the same object based on the second detection data regarding the second object, and an index value that are preset
  • the determination unit determines whether or not the first object and the second object are the same object by comparing the threshold values with each other, and the determination unit determines that the first object and the second object are the same object.
  • a correction unit that calculates a detection error between the first sensor and the second sensor based on the first detection data and the second detection data, and generates detection data after correction so as to eliminate the detection error And.
  • the obstacle recognition device predicts the movement of an object based on a first sensor that detects an object around the vehicle and detection data detected in the past by the first sensor, and predicts the current time.
  • a prediction unit that generates a value as third detection data of a third object, first detection data of the first object detected by the first sensor, and third detection data of the third object generated by the prediction unit
  • a first calculation unit that calculates an index value for identifying whether the first object and the third object are the same object based on the comparison between the index value and a preset threshold value.
  • a determination unit that determines whether an object and a third object are the same object, and a case where the first detection data and the third object are determined when the determination unit determines that the first object and the third object are the same object. 1st sensor based on 3 detection data Detection result and calculates the bias error between generation result by the prediction unit with, in which and a correcting unit for generating detection data corrected so as to eliminate the bias error.
  • an obstacle recognition method is an obstacle recognition method executed by a controller that realizes functions of a calculation unit, a determination unit, and a correction unit, and the first object related to the first object detected by the first sensor. Based on the detection data and the second detection data on the second object detected by the second sensor, an index value for identifying whether the first object and the second object are the same object is calculated. And a determination step of determining whether or not the first object and the second object are the same object by comparing the index value with a preset threshold value; When it is determined that the second object is the same object, the detection error between the first sensor and the second sensor is calculated based on the first detection data and the second detection data, and the detection error is eliminated. Detection data after correction A correction step of generating to, those comprising a.
  • an obstacle recognition method is an obstacle recognition method executed by a controller that realizes functions of a prediction unit, a calculation unit, a determination unit, and a correction unit, and detection detected in the past by the first sensor Predicting the movement of the object based on the data and generating a predicted value at the current time as third detection data of the third object, and first detection data of the first object detected by the first sensor; Calculating an index value for identifying whether or not the first object and the third object are the same object based on the third detection data regarding the third object generated in the prediction step; A determination step of determining whether the first object and the third object are the same object by comparing the value with a preset threshold value; When it is determined that the first object and the third object are the same object, the bias error between the detection result of the first sensor and the generation result of the prediction step is calculated based on the first detection data and the third detection data. And the correction step of generating the detection data after correction so as to eliminate the bias error.
  • the obstacle recognition device when a plurality of pieces of sensor information are combined to recognize an obstacle, a bias error between the sensors is corrected. As a result, in the case where a plurality of sensors detect the same object, obstacle recognition can accurately identify whether or not the same object without erroneously recognizing it as separate objects. An apparatus and obstacle recognition method can be obtained.
  • FIG. 1 is a block diagram showing the configuration of an obstacle recognition apparatus 1 according to Embodiment 1 of the present invention.
  • the obstacle recognition device 1 includes a control unit 10, a time measurement unit 11, a data reception unit 12, a correlation processing unit 13, an update processing unit 14, a first sensor 100, a second sensor 200, and vehicle information.
  • the sensor 300 is provided. In the following description, these may be referred to as blocks of the obstacle recognition device 1.
  • the first sensor 100 and the second sensor 200 receive light and electromagnetic waves radiated or reflected from an object and apply signal processing and image processing to measure the distance to the object, azimuth angle, relative velocity, etc. It is a sensor. Specifically, for the first sensor 100 and the second sensor 200, for example, a millimeter wave radar, a laser radar, an ultrasonic sensor, an infrared sensor, an optical camera or the like can be used alone or in combination. In the following description, information on an object measured by the first sensor 100 and the second sensor 200 is referred to as “detection data”.
  • the vehicle information sensor 300 is a sensor that measures the state of the vehicle. Specifically, the vehicle information sensor 300 measures the speed of the vehicle, the wheel speed, the steering angle, the yaw rate, and the like. Hereinafter, information indicating the state of the vehicle measured by the vehicle information sensor 300 is referred to as “vehicle data”.
  • the control unit 10 is an ECU (Electronic Control Unit) that integrally controls the function of the obstacle recognition device 1. Further, the control unit 10 includes a calculation unit 10a, a determination unit 10b, a correction unit 10c, and a storage unit 10d.
  • ECU Electronic Control Unit
  • the time measuring unit 11 has a function of measuring time and outputting the measured time to each block in the obstacle recognition device 1.
  • the data receiving unit 12 receives detection data and vehicle data transmitted from the first sensor 100, the second sensor 200, and the vehicle information sensor 300.
  • the data receiving unit 12 outputs the received detection data to the control unit 10 in association with the time measured by the time measuring unit 11.
  • observation data data obtained by adding time information to detection data in this manner.
  • the calculation unit 10a, the determination unit 10b, and the correction unit 10c of the control unit 10 execute the process set in advance in the bias error correction process described later.
  • the calculation unit 10a performs arithmetic processing of a calculated value, an index value, and the like in the bias error correction processing.
  • the determination unit 10 b determines whether the selected object pair is the same object by comparing the index value calculated by the calculation unit 10 a with a preset threshold condition.
  • the correction unit 10c corrects observation data, which is detection data including time information, using the calculated bias error value.
  • the storage unit 10 d is configured of a volatile memory, a non-volatile memory, and the like.
  • the storage unit 10 d stores observation data, calculated values, index values, vehicle data, track data, and the like.
  • the storage unit 10d creates and stores an observation data history in which observation data is stored in chronological order.
  • program data for controlling the function of the obstacle recognition device 1 is stored in the storage unit 10d.
  • the correlation processing unit 13 executes correlation processing of correlating the objects detected by the first sensor 100 and the second sensor 200 based on the corrected observation data transmitted from the control unit 10, and generates correlation data.
  • the correlation processing unit 13 outputs the corrected observation data and the correlation data to the update processing unit 14.
  • the update processing unit 14 updates the object information of the observation data after correction based on the correlation data.
  • the object information is information such as the position, velocity, acceleration, type, etc. of the object detected by the first sensor 100 or the second sensor 200.
  • the object information can be updated, for example, using a Kalman filter, a particle filter or the like.
  • the updated object information is output from the update processing unit 14 to the display unit 500 as “track data”.
  • the storage unit 10 d stores the track data in association with the time measured by the time measurement unit 11 at the timing when the update processing unit 14 executes the update of the object information.
  • the display unit 500 provided outside the obstacle recognition device 1 processes and displays the track data output from the update processing unit 14 into an image, text information, and the like.
  • the display unit 500 may be provided inside the obstacle recognition device 1.
  • each block in the obstacle recognition device 1 and each block in the control unit 10 may be configured to be mounted on independent ECUs, or some or all blocks may be mounted on one ECU. May be configured to
  • the data receiving unit 12 performs detection data acquisition processing based on an instruction from the control unit 10 (step S100).
  • the data receiving unit 12 acquires detection data from the first sensor 100 and the second sensor 200, and acquires vehicle data from the vehicle information sensor 300.
  • the data reception unit 12 generates observation data in which the acquired detection data is associated with the time measured by the time measurement unit 11. The observation data is output from the data receiving unit 12 to the control unit 10.
  • the control unit 10 performs a bias error correction process (step S200).
  • the calculation unit 10 a of the control unit 10 calculates the physical quantities of the object pair detected by the first sensor 100 and the second sensor 200 based on the observation data output from the data reception unit 12. Calculate the difference value.
  • the physical quantity is information such as the position, velocity, acceleration, and type of the obstacle, and may be referred to as object information in the following description.
  • the determination unit 10b of the control unit 10 determines whether the selected object pair is the same object based on the preset conditions. If it is determined that the object pair is the same object, the control unit 10 sets or calculates the bias error of the selected object pair.
  • the correction unit 10 c of the control unit 10 corrects the observation data, which is detection data including time information, using the bias error value, and ends the bias error correction process.
  • the corrected observation data is output from the control unit 10 to the correlation processing unit 13.
  • the correlation processing unit 13 performs correlation processing (step S300).
  • the correlation processing unit 13 associates the objects detected by the first sensor 100 and the second sensor 200 using the corrected observation data, and generates correlation data.
  • the correlation processing unit 13 outputs the corrected observation data and the correlation data to the update processing unit 14.
  • the update processing unit 14 performs object information update processing (step S400).
  • the update processing unit 14 updates the object information of the observation data after correction of the first sensor and the second sensor correlated by the correlation data, using, for example, a Kalman filter or the like.
  • obstacle recognition device 1 ends processing.
  • the process shown in FIG. 2 is repeatedly executed at a preset operation cycle.
  • FIG. 3 is a flowchart showing a flow of bias error correction processing of the obstacle recognition device 1 according to the first embodiment of the present invention.
  • step S10 of FIG. 3 the control unit 10 of the obstacle recognition device 1 deletes the oldest observation data from the observation data history stored in the storage unit 10d.
  • the control unit 10 stores the latest observation data acquired in the current cycle in the observation data history of the storage unit 10d.
  • the observation data is detection data including time information.
  • the detection data is numerical data such as position, velocity, acceleration, etc., which is a physical quantity of the detected object.
  • the observation data is associated with a number and a symbol (hereinafter referred to as a sensor ID) for identifying the detected sensor, a number and a symbol (hereinafter referred to as an object ID) for identifying the detected object, and the storage unit It is stored in 10d.
  • step S12 the control unit 10 selects the first sensor 100 among the plurality of objects acquired by the first sensor 100 and the second sensor 200 based on the observation data stored in the storage unit 10d. And the second sensor 200 selects an object one by one.
  • the selected object pair is referred to as a "selected object pair”.
  • step S13 the calculation unit 10a of the control unit 10 calculates an error value between the observation data of the first sensor 100 and the observation data of the second sensor 200. Specifically, the difference value of the physical quantity of the observation data between the selected object pair is calculated as the error value ⁇ X.
  • the method of calculating ⁇ X will be described with reference to FIG.
  • FIG. 4 is a view for explaining a method of calculating an error ⁇ X between observation data according to Embodiment 1 of the present invention.
  • the horizontal axis of FIG. 4 is time, and the vertical axis is a physical quantity of observation data.
  • the physical quantities of the observation data are numerical data such as the position, velocity, and acceleration of the object detected by the first sensor 100 and the second sensor 200.
  • the calculation unit 10a of the control unit 10 calculates the absolute value of the difference value between Xksns1 and Xksns2 as an inter-sensor error ⁇ Xk of observation data at time k.
  • step S13 of FIG. 3 the calculating unit 10a calculates inter-sensor errors ⁇ X1 to ⁇ Xn of observation data corresponding to the times t1 to tn, as shown in FIG.
  • step S14 the determination unit 10b of the control unit 10 determines whether the selected object pair set in step S12 is the same object based on the condition (1) set in advance.
  • Condition (1) is that the range of variation of inter-sensor errors ⁇ X1 to ⁇ Xn is smaller than a preset threshold value.
  • a value obtained by subtracting the minimum value from the maximum value of ⁇ X1 to ⁇ Xn, an average value of ⁇ X1 to ⁇ Xn, a median value of ⁇ X1 to ⁇ Xn, or the like can be used.
  • step S14 the determination unit 10b of the control unit 10 determines that the selected object pair is the same object if the range of variation of the inter-sensor errors ⁇ X1 to ⁇ Xn is smaller than the preset threshold (S14: Yes) It determines (step S15).
  • step S14 when the range of variation in inter-sensor errors ⁇ X1 to ⁇ Xn is equal to or greater than a preset threshold (S14: No), the determination unit 10b of the control unit 10 selects the same object pair as the selected object pair It is determined that there is not (step S21).
  • step S16 the control unit 10 sets or calculates the bias error value of the selected object pair.
  • the bias error value for example, the latest ⁇ Xn can be set as the bias error value among the inter-sensor errors ⁇ X1 to ⁇ Xn of the observation data corresponding to the times t1 to tn. Further, an average value, a median value or the like of ⁇ X1 to ⁇ Xn may be calculated and used as a bias error value.
  • control part 10 advances processing to step S22.
  • step S22 the control unit 10 sets the bias error value of the selected object pair to an invalid value.
  • step S17 when all object pairs have been selected for the objects in the observation data of the first sensor 100 and the second sensor 200 (S17: Yes), the control unit 10 proceeds to step S18. On the other hand, when all object pairs have not been selected (S17: No), the control unit 10 returns to step S12 and newly sets a selected object pair.
  • step S18 the determination unit 10b of the control unit 10 determines whether or not the bias error value set in step S16 is an invalid value in all of the selected object pairs. If the bias error value is not set to an invalid value in all of the selected object pairs (S18: No), the control unit 10 proceeds the process to step S19. On the other hand, when the bias error value is set to an invalid value for any one of all the selected object pairs (S18: Yes), the control unit 10 proceeds the process to step S23.
  • step S18 the control unit 10 determines the selected object pair having the smallest bias error value as the same object in all the selected object pairs. Then, control part 10 advances processing to Step S20.
  • step S23 the control unit 10 determines that the same object does not exist in all of the selected object pairs. That is, the control unit 10 determines that the same object does not exist in the observation data of the first sensor 100 and the second sensor 200, and ends the bias error correction process.
  • step S20 the correction unit 10c of the control unit 10 performs correction processing of observation data using the bias error value in the selected object pair determined to be the same object.
  • a bias error value may be subtracted from observation data of the first sensor 100 so as to eliminate a bias error which is a detection error between sensors.
  • step S15 when there is only one detected object in the observation data of the first sensor 100 and the second sensor 200, there is only one combination of the selected object pair. Then, if the selected object pair is determined to be the same object in step S15, the process proceeds uniquely in the order of step S16, step S17: Yes, and step S18: No. In step S19, the selected object pair is the same object. It is determined as
  • the control unit 10 repeatedly executes the processing from step S12 to step S17 until the calculation of the bias error value of all the object pairs is completed. Then, in step S19, the control unit 10 determines the selected object pair having the smallest bias error value as the same object.
  • the obstacle recognition device by using the calculated difference value of the physical quantity as the determination index value, it is determined whether the selected object pair is the same object or not. Can accurately recognize an object.
  • Embodiment 2 and Embodiment 1 the configuration of index values used to determine whether a selected object pair is the same object is different.
  • the configuration of the obstacle recognition device 1 according to the second embodiment is the same as that of the block diagram shown in FIG.
  • the difference value of the physical quantity of the selected object pair is calculated based on the observation data of the first sensor 100 and the second sensor 200. And the example which determines whether a selection object pair is the same object using the difference value of the calculated physical quantity was demonstrated.
  • the movement trajectory of the selected object pair is approximated by a polynomial, the difference value of the coefficients of the approximated polynomial is calculated, and it is determined whether the selected object pair is the same object.
  • FIG. 5 is a flowchart showing the process flow of the obstacle recognition apparatus 1 according to the second embodiment of the present invention.
  • the same parts as those of the first embodiment are given the same reference numerals and the description thereof is omitted.
  • step S10 in FIG. 5 The deletion of the oldest observation data in step S10 in FIG. 5 and the process of adding the latest observation data in step S11 are the same as those in FIG. 3 described in the first embodiment, and thus the description thereof is omitted.
  • step S30 the control unit 10 performs processing of converting the observation data of the first sensor 100 and the second sensor 200 into a ground coordinate system using the vehicle data.
  • the observation data converted into the ground coordinate system in this manner is referred to as “coordinate conversion data”.
  • the coordinate conversion data is stored in the storage unit 10d.
  • step S31 the calculation unit 10a of the control unit 10 calculates the movement trajectory of the object detected by the first sensor 100 and the second sensor 200 using the coordinate conversion data.
  • FIG. 6 is a diagram for explaining a method of calculating a movement trajectory of a detected object according to Embodiment 2 of the present invention.
  • FIG. 6 shows coordinate conversion data of an object detected by the first sensor 100 and an object detected by the second sensor 200 at each time.
  • coordinate conversion data at seven times at which an object is detected is plotted on the ground coordinate system xy.
  • step S32 the control unit 10 selects the first sensor 100 and the second sensor from among a plurality of objects in the coordinate conversion data of the first sensor 100 and the second sensor 200 stored in the storage unit 10d. One object is selected for each of 200, and a selected object pair is set.
  • step S33 the calculation unit 10a of the control unit 10 calculates the absolute value of the difference value of the coefficients of the polynomial in order to compare the movement loci of the selected object pair.
  • the absolute values of the difference values of the coefficients C0, C1, C2, and C3 are represented by ⁇ C0, ⁇ C1, ⁇ C2, and ⁇ C3, respectively.
  • step S34 the determination unit 10b of the control unit 10 determines whether the selected object pair is the same object based on the condition (2) set in advance.
  • the determination based on the condition (2) can be performed, for example, as follows.
  • control unit 10 sets threshold values respectively corresponding to the absolute values ⁇ C0, ⁇ C1, ⁇ C2, and ⁇ C3 of the coefficient difference values in advance. Then, in step S34, when all of ⁇ C0, ⁇ C1, ⁇ C2 and ⁇ C3 are smaller than the preset threshold (S34: Yes), the selected object pair is the same object if all of ⁇ C0, ⁇ C1, ⁇ C2 and ⁇ C3 are smaller It is determined that there is (step S15).
  • step S34 when any one of ⁇ C0, ⁇ C1, ⁇ C2 and ⁇ C3 is equal to or greater than a preset threshold (S34: No), the determination unit 10b of the control unit 10 has the same selected object pair It is determined that the object is not an object (the process proceeds to step S21).
  • step S15 following step S34 and step S21 are the same as those in FIG. 3 described in the first embodiment, and thus the description thereof is omitted.
  • the obstacle recognition device determines whether the selected object pair is the same object with the degree of approximation of the movement trajectory of the selected object pair in the ground coordinate system as the determination index value By determining whether or not it is possible to accurately recognize the object.
  • the third embodiment and the first and second embodiments are different in the configuration of the calculated value used to determine whether the selected object pair is the same object.
  • the configuration of the obstacle recognition device 1 according to the third embodiment is the same as the block diagram of the first embodiment shown in FIG.
  • the correlation coefficient is calculated based on the time-series data of the ground position of the selected object pair, and whether or not the selected object pair is the same object based on the calculated correlation coefficient.
  • FIG. 7 is a flowchart showing the process flow of the obstacle recognition apparatus 1 according to the third embodiment of the present invention.
  • 8A is an explanatory diagram of an error correction process of the obstacle recognition device 1 according to the third embodiment of the present invention
  • FIG. 8B is an explanatory diagram of a vertical position correlation coefficient
  • FIG. 8C is an explanation of a horizontal position correlation coefficient.
  • the same parts as in the first embodiment or the second embodiment may be assigned the same reference numerals and descriptions thereof may be omitted.
  • control unit 10 performs processing for converting observation data of first sensor 100 and second sensor 200 into a ground coordinate system using vehicle data. .
  • step S32 the control unit 10 generates a plurality of pieces of data acquired by the first sensor 100 and the second sensor 200 based on the coordinate conversion data stored in the storage unit 10d.
  • the control unit 10 generates a plurality of pieces of data acquired by the first sensor 100 and the second sensor 200 based on the coordinate conversion data stored in the storage unit 10d.
  • one object is selected for each of the first sensor 100 and the second sensor 200. Select a pair of coordinate transformation data of the selected object.
  • step S40 the calculation unit 10a of the control unit 10 calculates the correlation coefficient of the selected object pair using the coordinate conversion data.
  • 8A to 8C are diagrams for explaining the method of calculating the correlation coefficient r of the selected object pair according to Embodiment 3 of the present invention.
  • each plot of FIG. 8A shows coordinate conversion data X1_sns1 to Xn_sns1 of the object detected by the first sensor 100 and coordinate conversion data X1_sns2 to Xn_sns2 of the object detected by the second sensor 200 at time t1 to tn. .
  • X1_sns1 to Xn_sns1 shown in FIG. 8A are the vertical position (PosXsns1) at time t1 to tn of the object detected by the first sensor 100.
  • X1_sns2 to Xn_sns2 are longitudinal positions (PosXsns2) at time t1 to tn of the object detected by the second sensor 200.
  • Y1_sns1 to Yn_sns1 are lateral positions (PosYsns1) at time t1 to tn of the object detected by the first sensor 100.
  • Y1_sns2 to Yn_sns2 are longitudinal positions (PosYsns2) at time t1 to tn of the object detected by the second sensor 200.
  • step S40 the calculation unit 10a of the control unit 10 calculates longitudinal positions PosXsns1 and PosXsns2 at time t1 to tn and lateral positions PosYsns1 and PosYsns2 for the selected object pair.
  • the calculation unit 10a calculates the correlation coefficient rposX of the vertical position (PosXsns1, PosXsns2) and the correlation coefficient rposY of the horizontal position (PosYsns1, PosYsns2).
  • FIG. 8B is a diagram for explaining an example of a method of calculating the correlation coefficient rposX of the vertical position (PosXsns1, PosXsns2).
  • the horizontal axis in FIG. 8B is the vertical position (PosXsns2) of the object detected by the second sensor 200, and the vertical axis in FIG. 8B is the vertical position (PosXsns1) of the object detected by the first sensor 100.
  • a phase when using two pairs of data strings ⁇ (PosXsns1_ti, PosXsns2_ti) ⁇ indicating PosXsns1_ti and PosXsns2_ti (i 1, 2,... N) indicating vertical position at time t1 to tn as variables Calculate the relation number rposX.
  • FIG. 8C is a diagram for explaining an example of a method of calculating the correlation coefficient rposY of the lateral position (PosXsns1, PosXsns2).
  • the horizontal axis in FIG. 8C is the lateral position (PosYsns2) of the object detected by the second sensor 200
  • the vertical axis in FIG. 8C is the lateral position (PosYsns1) of the object detected by the first sensor 100.
  • the correlation coefficient rposY is calculated.
  • step S41 the determination unit 10b of the control unit 10 determines whether the selected object pair is the same object based on the condition (3) set in advance.
  • control unit 10 sets threshold values corresponding to the correlation coefficients rposX and rposY in advance.
  • step S41 when both of the correlation coefficients rposX and rposY are each equal to or greater than the preset threshold (S41: Yes), the selected object pair is the same object. It is determined that Then, control unit 10 advances the process to step S15.
  • step S41 if any one of the correlation coefficients rposX and rposY is smaller than the preset threshold (S41: No), the determination unit 10b of the control unit 10 selects the selected object pair as the same object. It is determined that there is not. And control part 10 advances processing to Step S21.
  • step S15 following step S41 and step S21 are the same as those in FIG. 3 described in the first embodiment, and thus the description thereof is omitted.
  • the selected object pair has the correlation coefficient calculated using the time-series data of the ground position of the selected object pair as the determination index value. By determining whether the object is the same object, the object can be accurately recognized.
  • bias error correction processing according to the first to third embodiments, an example has been described in which it is determined based on observation data of the first sensor 100 and the second sensor 200 whether or not the selected object pair is the same object.
  • the obstacle recognition device 2 includes a prediction processing unit in addition to the configuration of the obstacle recognition device 1 according to the first to third embodiments.
  • a prediction processing unit in addition to the configuration of the obstacle recognition device 1 according to the first to third embodiments.
  • an example will be described in which it is determined whether the selected object pair is the same object based on observation data of the first sensor 100 or the second sensor 200 and prediction data calculated by the prediction processing unit.
  • parts similar to those in the first to third embodiments may be assigned the same reference numerals and descriptions thereof may be omitted.
  • observation data and prediction data of the 1st sensor 100 are used, it is also possible to use observation data of the 2nd sensor 200 instead of observation data of the 1st sensor 100 is there.
  • FIG. 9 is a block diagram showing the configuration of an obstacle recognition device 2 according to a fourth embodiment of the present invention.
  • the obstacle recognition device 2 according to the fourth embodiment includes a prediction unit 10e in addition to the configuration of the obstacle recognition device 1 according to the first to third embodiments shown in FIG.
  • the prediction process (step S500) is first executed. Specifically, the prediction unit 10e calculates prediction data of the state of the track of the object at the current time based on the track data which is the object information updated in the updating process (step S400) in the previous cycle ( Step S500) is performed.
  • the state of the track of the object refers to the position, velocity, acceleration, attribute information, etc. of the detected object.
  • the calculated prediction data is transmitted from the prediction unit 10e to the storage unit 10d.
  • the storage unit 10d creates and stores predicted data history in which predicted data is stored in chronological order.
  • the data receiving unit 12 performs a detection data acquisition process (step S100).
  • the detection data acquisition process is the same as step S100 in the first to third embodiments. As described below, when using observation data of the first sensor 100 for bias error correction processing, it is not necessary to acquire observation data of the second sensor 200.
  • control unit 10 performs a bias error correction process (step S200).
  • the bias error correction process first, the calculation unit 10a of the control unit 10 is detected by the first sensor 100 based on the observation data output from the data reception unit 12 and the prediction data output from the prediction unit 10e. Calculate the difference value of the physical quantity of the object and the object in the prediction data.
  • the determination unit 10b of the control unit 10 determines whether or not the object pair selected from the observation data and the prediction data of the first sensor 100 is the same object based on the preset conditions.
  • the control unit 10 determines an error between observation data and prediction data of the first sensor 100 of the selected object pair (hereinafter, the bias is the same as in the first to third embodiments). Set or calculate the error).
  • the correction unit 10c of the control unit 10 corrects the observation data using the bias error value, and ends the bias error correction process.
  • the corrected observation data is output from the control unit 10 to the correlation processing unit 13.
  • the correlation processing unit 13 performs correlation processing (step S300).
  • the correlation processing unit 13 associates the corrected observation data of the first sensor 100 with the prediction data using the corrected observation data to generate correlation data.
  • the correlation processing unit 13 outputs the corrected observation data and the correlation data to the update processing unit 14.
  • the update processing unit 14 performs object information update processing (step S400).
  • the update processing unit 14 updates the corrected observation data of the first sensor 100 and the object information of the prediction data according to the correlation data, for example, by performing sensor fusion.
  • obstacle recognition device 2 ends processing.
  • the process shown in FIG. 10 is repeatedly performed at a preset operation cycle.
  • FIG. 11 is a flowchart showing a flow of bias error correction processing of the obstacle recognition device 2 according to the fourth embodiment of the present invention.
  • the bias error correction process in the fourth embodiment is the same as the process when the observation data of the second sensor 200 in the first embodiment is replaced with prediction data. Therefore, in the following description, the same parts as in the first embodiment may be assigned the same reference numerals and descriptions thereof may be omitted.
  • step S50 of FIG. 11 the control unit 10 of the obstacle recognition device 2 deletes the oldest observation data among the observation data stored in the storage unit 10d. Further, the control unit 10 deletes the oldest prediction data among the prediction data stored in the storage unit 10 d.
  • step S51 the control unit 10 stores the latest observation data acquired in the current cycle in the observation data history of the storage unit 10d. Further, the control unit 10 stores the prediction data of the current cycle in the observation data history of the storage unit 10d.
  • step S52 the control unit 10 selects one object each from among the plurality of objects in the observation data and the prediction data of the first sensor 100 stored in the storage unit 10d. Set the selected object pair.
  • step S53 the calculation unit 10a of the control unit 10 calculates a difference between physical quantities of observation data and prediction data of the first sensor 100 between selected object pairs as an error value ⁇ X.
  • the process of step S53 is a process in which observation data of the second sensor 200 in step S13 of the first embodiment is changed to prediction data. The method of calculating ⁇ X will be described with reference to FIG.
  • FIG. 12 is a diagram for explaining a method of calculating an error ⁇ X between observation data and prediction data according to the fourth embodiment of the present invention.
  • An error ⁇ Xk between the observation data and the prediction data at time k can be an absolute value of a difference value between Xksns1 and Xksred.
  • the calculation unit 10a of the control unit 10 calculates errors ⁇ X1 to ⁇ Xn corresponding to the times t1 to tn, as shown in FIG.
  • step S54 the determination unit 10b of the control unit 10 determines whether the selected object pair set in step S52 is the same object based on the condition (1) 'set in advance.
  • step S54 when the range of variation of the errors ⁇ X1 to ⁇ Xn is smaller than the preset threshold (S54: Yes), the determination unit 10b of the control unit 10 determines that the selected object pair is the same object. (Step S15).
  • step S54 when the range of variation in inter-sensor errors ⁇ X1 to ⁇ Xn is equal to or greater than a preset threshold (S54: No), determination unit 10b of control unit 10 selects the same object pair as the selected object pair It is determined that there is not (step S21).
  • a preset threshold S54: No
  • determination unit 10b of control unit 10 selects the same object pair as the selected object pair It is determined that there is not (step S21).
  • the range of variation a value obtained by subtracting the minimum value from the maximum value of ⁇ X1 to ⁇ Xn, an average value of ⁇ X1 to ⁇ Xn, a median value of ⁇ X1 to ⁇ Xn, or the like can be used.
  • step S16 the control unit 10 sets a bias error value of the selected object pair.
  • the bias error value for example, the latest ⁇ Xn can be used as the bias error value among the inter-sensor errors ⁇ X1 to ⁇ Xn of the observation data corresponding to the times t1 to tn. Further, an average value, a median value or the like of ⁇ X1 to ⁇ Xn may be used as the bias error value.
  • control part 10 advances processing to step S22.
  • step S22 the control unit 10 sets the bias error value of the selected object pair to an invalid value.
  • step S57 the control unit 10 advances the process to step S18 if all object pairs have been selected for the objects in the observation data of the first sensor 100 and in the prediction data (S57: Yes). On the other hand, when all object pairs have not been selected (S57: No), the control unit 10 returns to step S52, and newly sets a selected object pair.
  • step S18 the determination unit 10b of the control unit 10 determines whether or not the bias error value set in step S16 is an invalid value in all of the selected object pairs. If the bias error value is not an invalid value in all of the selected object pairs (S18: No), the control unit 10 advances the process to step S19. On the other hand, when the bias error value is not an invalid value in all the selected object pairs (S18: Yes), the control unit 10 proceeds to the process of step S23.
  • step S18 the control unit 10 determines that the selected object pair having the smallest bias error value in all the selected object pairs is the same object. Then, control part 10 advances processing to Step S20.
  • step S23 the control unit 10 determines that the same object is not present in all the selected object pairs, and ends the bias error correction process.
  • step S20 the correction unit 10c of the control unit 10 performs correction processing of observation data of the first sensor 100 using the bias error value in the selected object pair determined to be the same object.
  • the bias error value may be subtracted from the observation data of the first sensor 100 so as to eliminate the bias error.
  • any one of the first sensor 100 or the second sensor 200 can be omitted.
  • only one of the first sensor 100 and the second sensor 200 may be preferentially selected and used.
  • the observation data of the first sensor 100 or the second sensor 200 and the prediction data calculated by the prediction processing unit are used. Calculate physical quantities. Subsequently, by using the calculated difference value of the physical quantity as a determination index value, it is possible to accurately recognize the object by determining whether or not the selected object pair is the same object.
  • Embodiment 5 an obstacle recognition apparatus 2 according to a fifth embodiment of the present invention will be described with reference to FIGS. 13 and 14.
  • the fifth embodiment and the fourth embodiment differ in the configuration of index values used to determine whether the selected object pair is the same object.
  • the configuration of the obstacle recognition device 2 of the sixth embodiment is the same as that of the block diagram of the fourth embodiment shown in FIG.
  • the difference value of the physical quantity of the selected object pair is calculated based on the observation data of the first sensor 100 or the second sensor 200 and the prediction data calculated by the prediction processing unit. And the example which determines whether a selection object pair is the same object using the difference value of the calculated physical quantity was demonstrated.
  • the movement locus of the selected object pair is approximated by a polynomial, and the difference value of the coefficients of the approximated polynomial is calculated.
  • the bias error correction process in the fifth embodiment is the same as the process when one of the observation data of the first sensor 100 or the observation data of the second sensor 200 in the second embodiment is replaced with prediction data. is there. Therefore, in the following description, parts similar to those in the first to fourth embodiments may be assigned the same reference numerals and descriptions thereof may be omitted.
  • observation data and prediction data of the first sensor 100 are used is described, observation data of the second sensor 200 can be used instead of observation data of the first sensor 100. is there.
  • FIG. 13 is a flowchart showing a flow of bias error correction processing of the obstacle recognition apparatus 2 according to the fifth embodiment of the present invention.
  • step S50 of FIG. 13 the control unit 10 of the obstacle recognition device 2 deletes the oldest observation data among the observation data stored in the storage unit 10d. Further, the control unit 10 deletes the oldest prediction data among the prediction data stored in the storage unit 10 d.
  • step S51 the control unit 10 stores the latest observation data acquired in the current cycle in the observation data history of the storage unit 10d. Further, the control unit 10 stores the prediction data of the current cycle in the observation data history of the storage unit 10d.
  • step S60 the control unit 10 performs a process of converting the observation data and prediction data of the first sensor 100 into a ground coordinate system using the vehicle data.
  • the coordinate conversion data is stored in the storage unit 10d.
  • step S61 the calculation unit 10a of the control unit 10 calculates the movement trajectory of the object in the observation data of the first sensor 100 and in the prediction data using the coordinate conversion data.
  • the polynomial that approximates the movement locus is the same as in the second embodiment.
  • FIG. 14 is a diagram for explaining a method of calculating a movement trajectory of a detected object according to Embodiment 5 of the present invention.
  • coordinate conversion data of the object detected by the second sensor 200 in FIG. 6 of the second embodiment is replaced with coordinate conversion data of the object in the prediction data.
  • step S62 the control unit 10 selects one object each from among the plurality of objects in the observation data and the prediction data of the first sensor 100 stored in the storage unit 10d. Set the selected object pair.
  • step S63 the calculation unit 10a of the control unit 10 calculates absolute values ⁇ C0, ⁇ C1, ⁇ C2, and ⁇ C3 of the difference values of the coefficients of the polynomial that approximates the movement locus between the selected object pair.
  • ⁇ C0 abs (C0sns1-C0pred)
  • ⁇ C1 abs (C1sns1-C1pred)
  • ⁇ C2 abs (C2sns1-C2pred)
  • ⁇ C3 abs (C3sns1-C3pred) are calculated.
  • step S64 the determination unit 10b of the control unit 10 determines whether the selected object pair is the same object based on the preset condition (2) '.
  • the determination based on the condition (2) ′ can be performed, for example, as follows.
  • control unit 10 sets threshold values respectively corresponding to the absolute values ⁇ C0, ⁇ C1, ⁇ C2, and ⁇ C3 of the coefficient difference values in advance. Then, in step S64, when all of ⁇ C0, ⁇ C1, ⁇ C2 and ⁇ C3 are smaller than the preset threshold (S64: Yes), the selected object pair is the same object if all of ⁇ C0, ⁇ C1, ⁇ C2 and ⁇ C3 are smaller The process proceeds to (S15).
  • step S64 if any one of ⁇ C0, ⁇ C1, ⁇ C2 and ⁇ C3 is equal to or greater than a preset threshold (S64: No), the determination unit 10b of the control unit 10 has the same selected object pair It is determined that the object is not an object (step S21).
  • step S15 following step S64 and step S21 are the same as those of FIG. 11 described in the fourth embodiment, and thus the description thereof is omitted.
  • the selected object in the ground coordinate system from the observation data of the first sensor 100 or the second sensor 200 and the prediction data calculated by the prediction processing unit Calculate the movement trajectory of the pair. Subsequently, it is possible to accurately recognize the object by determining whether or not the selected object pair is the same object, using the calculated approximation of the movement trajectory of the selected object pair as a determination index value.
  • an obstacle recognition apparatus 2 according to a sixth embodiment of the present invention will be described with reference to FIGS. 15 and 16A to 16C.
  • the configuration of the index value used to determine whether the selected object pair is the same object is different.
  • the configuration of the obstacle recognition device 2 of the sixth embodiment is the same as that of the block diagram of the fourth embodiment shown in FIG.
  • the difference value of the physical quantity of the selected object pair is calculated based on the observation data of the first sensor 100 or the second sensor 200 and the prediction data calculated by the prediction processing unit. And the example which determines whether a selection object pair is the same object using the difference value of the calculated physical quantity was demonstrated.
  • the movement loci of the selected object pair are respectively approximated by polynomials, and the difference value of the coefficients of the approximated polynomial is calculated to select the selected object. The example which determines whether a pair is the same object was demonstrated.
  • the correlation coefficient is calculated based on the time series data of the position of the ground of the selected object pair to the ground It is determined based on whether or not the selected object pair is the same object.
  • the bias error correction process in the sixth embodiment is the same as the process when one of the observation data of the first sensor 100 or the observation data of the second sensor 200 in the third embodiment is replaced with prediction data. is there. Therefore, in the following description, parts similar to those in the first to fifth embodiments may be assigned the same reference numerals and descriptions thereof may be omitted.
  • observation data and prediction data of the first sensor 100 are used is described, observation data of the second sensor 200 can be used instead of observation data of the first sensor 100. is there.
  • FIG. 15 is a flowchart showing the process flow of the obstacle recognition apparatus 2 according to the sixth embodiment of the present invention.
  • 16A is an explanatory view of an error correction process of the obstacle recognition device 2 according to the sixth embodiment of the present invention
  • FIG. 16B is an explanatory view of a vertical position correlation coefficient
  • FIG. 16C is an explanatory view of a horizontal position correlation coefficient. is there.
  • step S60 the control unit 10 performs processing of converting the observation data and prediction data of the first sensor 100 into the ground coordinate system using the vehicle data.
  • step S52 the control unit 10 selects one of the plurality of objects in the observation data and the prediction data of the first sensor 100 stored in the storage unit 10d. Select objects one by one and set a selected object pair.
  • step S40 the calculation unit 10a of the control unit 10 calculates the correlation coefficient of the selected object pair using coordinate conversion data.
  • 16A to 16C are diagrams for explaining the method of calculating the correlation coefficient r of the selected object pair according to Embodiment 6 of the present invention.
  • X1_sns1 to Xn_sns1 shown in FIG. 16A are longitudinal positions (PosXsns1) at time t1 to tn of the object detected by the first sensor 100.
  • X1_pred to Xn_pred are longitudinal positions (PosXpred) at times t1 to tn of prediction data.
  • Y1_sns1 to Yn_sns1 are lateral positions (PosYsns1) at time t1 to tn of the object detected by the first sensor 100.
  • Y1_pred to Yn_pred is the vertical position (PosYpred) at time t1 to tn of the prediction data.
  • step S70 the calculation unit 10a of the control unit 10 calculates longitudinal positions PosXsns1 and PosXpred at time t1 to tn and lateral positions PosYsns1 and PosYpred for the selected object pair.
  • the calculation unit 10a calculates the correlation coefficient rposX of the vertical position (PosXsns1, PosXpred) and the correlation coefficient rposY of the horizontal position (PosYsns1, PosYpred).
  • FIG. 16B is a diagram for explaining an example of a method of calculating the correlation coefficient rposX of the vertical position (PosXsns1, PosXpred).
  • the correlation coefficient rposX is calculated.
  • FIG. 16C is a diagram for explaining an example of a method of calculating the correlation coefficient rposY of the lateral position (PosXsns1, PosXpred).
  • the correlation coefficient rposY is calculated.
  • step S71 the determination unit 10b of the control unit 10 determines whether the selected object pair is the same object based on the condition (3) ′ set in advance.
  • the determination based on the condition (3) ′ can be performed, for example, as follows.
  • control unit 10 sets threshold values corresponding to the correlation coefficients rposX and rposY in advance.
  • step S41 when both of the correlation coefficients rposX and rposY are each equal to or greater than the preset threshold (S71: Yes), the selected object pair is the same object. It is determined that Then, control unit 10 advances the process to step S15.
  • step S71 when one of the correlation coefficients rposX and rposY is smaller than the preset threshold (S71: No), the determination unit 10b of the control unit 10 selects the selected object pair as the same object. It is determined that there is not. And control part 10 advances processing to Step S21.
  • step S15 following step S71 and step S21 are the same as those in FIG. 9 described in the fourth embodiment, and thus the description thereof is omitted.
  • the observation data of the first sensor 100 or the second sensor 200 and the prediction data calculated by the prediction processing unit are used.
  • the correlation coefficient of the position of the selected object pair in the ground coordinate system is calculated.
  • the calculated correlation coefficient is calculated.
  • Embodiment 7 In the seventh embodiment, the obstacle recognition device 1 and the obstacle recognition device 2 described in the first to sixth embodiments are configured to perform correction based on the sensor delay time with respect to the detection time of detection data. .
  • the process of performing correction on the detection data based on the delay time of the sensor at the detection time is referred to as correction process of the detection time.
  • the sensor delay time is, for example, the time from when the detected object enters the detection area of the sensor until the output of the sensor is performed, and is also referred to as the response time of the sensor. Therefore, if the sensor delay time is not taken into consideration, there is a possibility that the detection data may be shifted in time.
  • the data receiving unit 12 Get detection data from the sensor. Subsequently, the data receiving unit 12 associates the acquired detection data with the time measured by the time measuring unit 11 to generate observation data.
  • the time when the data receiving unit 12 receives the detection data from the sensor can be measured by the time measuring unit 11 and can be applied as it is as observation data.
  • a time lag occurs between the time when the data receiving unit 12 receives from the sensor and the time when the sensor actually detects an object.
  • the correction process of the detection time is a process of correcting the time information included in the observation data. Therefore, it is preferable that the correction process of the detection time be performed in a period after the data reception unit 12 acquires the detection data and before the control unit 10 performs the bias error correction process using the observation data. .
  • the timing of performing the correction process of the detection time can be set to be performed when the data receiving unit 12 generates observation data.
  • the data reception unit 12 may obtain and output detection data, and the calculation unit 10a of the control unit 10 may perform correction processing of the detection time.
  • the data receiving unit 12 may output the detection data to the control unit 10, and then the calculation unit 10a of the control unit 10 may perform correction processing of the detection time.
  • the calculation unit 10a of the control unit 10 calculates the known delay time of the first sensor 100 and the second sensor A correction process of the detection time is performed by adding each to the detection data of 200.
  • FIG. 17A shows time-series observation data of the first sensor 100 and the second sensor 200.
  • FIG. 17B shows the relationship between the correction amount of detection time (hereinafter referred to as shift time) and the correlation coefficient r of time series data.
  • the control unit 10 estimates the delay time based on the relationship between the shift time and the correlation coefficient r shown in FIG. 17B.
  • control unit 10 calculates the correlation coefficient r0 of time series data from the time series observation data of the first sensor 100 and the second sensor 200.
  • the control unit 10 shifts the observation data of the time series of the first sensor 100 in the direction in which the time increases by the shift time ⁇ t corresponding to one cycle. Subsequently, the control unit 10 calculates a correlation coefficient r ( ⁇ t) of time series data from the time series observation data of the first sensor 100 shifted by ⁇ t and the time series observation data of the second sensor 200. .
  • the control unit 10 shifts the observation data of the time series of the first sensor 100 in the direction of increasing the time by a shift time 2 * ⁇ t corresponding to two cycles. . Subsequently, the control unit 10 calculates a correlation coefficient r (2 * ⁇ t) of time-series data from time-series observation data of the first sensor 100 shifted by 2 * ⁇ t and time-series observation data of the second sensor 200. Calculate).
  • control unit 10 shifts the time series observation data of the first sensor 100 to 3 * ⁇ t, 4 * ⁇ t, 5 * ⁇ t, -1 * ⁇ t, -2 * ⁇ t, and the correlation coefficients are respectively changed. calculate.
  • FIG. 17B is a diagram in which the correlation coefficient r of the time series data calculated as described above is plotted with the shift time as the horizontal axis.
  • the correlation coefficient r of time series data is maximum when the shift time is 2 * ⁇ t.
  • the control unit 10 sets a shift time (2 * ⁇ t in FIG. 17A) at which the correlation coefficient r of time series data is maximum as an estimated value of the delay time. Subsequently, the calculation unit 10a of the control unit 10 corrects the time series observation data of the first sensor 100 using the set estimated value of the delay time.
  • control unit 10 executes the bias error correction process described in the first to third embodiments using the observation data after the detection time correction.
  • the calculation unit 10a calculates an index value using observation data after detection time correction.
  • the calculation of the correlation coefficient r and the estimation of the delay time may be performed not by the control unit 10 but by an estimation unit provided inside the obstacle recognition device.
  • the observation data of time series of the first sensor 100 and the second sensor 200 are used to detect The case of performing the correction process has been described.
  • the correction processing of the detection time described above can be added to the processing described in the fourth to sixth embodiments (the obstacle recognition device 2).
  • the calculation unit 10a calculates the known delay time of the first sensor 100 or the second sensor A correction process of the detection time is performed by adding to the detection data of 200.
  • the control unit 10 executes the bias error correction process described in the fourth to sixth embodiments using the observation data after the detection time correction.
  • the calculation unit 10a calculates an index value using observation data after detection time correction.
  • the obstacle recognition device As described above, according to the obstacle recognition device according to the seventh embodiment, it is possible to execute the bias error correction process while preventing the object detection time deviation due to the sensor delay time. Become.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

車両の周辺の物体を検知する第1センサおよび第2センサと、第1センサで検出された第1物体に関する第1検出データと、第2センサで検出された第2物体に関する第2検出データとに基づいて、第1物体と前記第2物体とが同一物体であるか否かを識別するための指標値を算出する算出部と、指標値と予め設定された閾値とを比較することで、第1物体と第2物体とが同一物体であるか否かを判定する判定部と、判定部により第1物体と第2物体とが同一物体であると判定された場合に、第1検出データと前記第2検出データとに基づいて第1センサと第2センサとの検出誤差を算出し、検出誤差をなくすように補正後の検出データを生成する補正部と、を備えることにより、実際には同一物体を検出している場合において、別々の物体であると誤認識することなく、正確に同一物体であるか否かを識別することができる。

Description

障害物認識装置および障害物認識方法
 本発明は、車載センサを用いて障害物認識を行う障害物認識装置および障害物認識方法に関するものである。
 従来から、車両周辺の障害物を、複数のセンサ情報を組み合わせて認識する障害物認識装置が提案されている(例えば、特許文献1参照)。
 特許文献1の障害物認識装置は、センサとして前方カメラとミリ波レーダを備えている。前方カメラは障害物に関する第一パラメータ情報を取得し、ミリ波レーダは障害物に関する第二パラメータ情報を取得する。特許文献1の障害物認識装置は、第一パラメータ情報と第二パラメータ情報とに基づいて、前方カメラまたはミリ波レーダの方位角の軸ずれ量を算出し、算出された軸ずれ量を用いて、前方カメラまたはミリ波レーダの方位角の軸ずれを補正する。
特開第2010-249613号公報
 しかしながら、従来技術には、以下のような課題がある。
 車両に搭載されるセンサは、カメラ、ミリ波レーダ、レーザレーダ、超音波センサ、赤外線センサ等がある。複数のセンサで同一物体を検出する場合、センサの種類によりセンサ間で検出誤差(以下、バイアス誤差と称する)が発生する。バイアス誤差は、車両の走行環境により時間的に変動することがあるため、推定することが困難である。
 従来の障害物認識装置は、このバイアス誤差を想定していない。そのため、従来の障害物認識装置は、複数のセンサが実際には同一物体を検出している場合でも、センサ間のバイアス誤差により、別々の物体であると誤認識してしまうという課題がある。
 本発明は、このような課題を解決するためになされたものであり、その目的は、実際には複数のセンサが同一物体を検出している場合、別々の物体であると誤認識することなく、正確に同一物体であるか否かを識別することができる障害物認識装置および障害物認識方法を提供することである。
 本発明における障害物認識装置は、車両の周辺の物体を検知する第1センサおよび第2センサと、第1センサで検出された第1物体に関する第1検出データと、第2センサで検出された第2物体に関する第2検出データとに基づいて、第1物体と前記第2物体とが同一物体であるか否かを識別するための指標値を算出する算出部と、指標値と予め設定された閾値とを比較することで、第1物体と第2物体とが同一物体であるか否かを判定する判定部と、判定部により第1物体と第2物体とが同一物体であると判定された場合に、第1検出データと前記第2検出データとに基づいて第1センサと第2センサとの検出誤差を算出し、検出誤差をなくすように補正後の検出データを生成する補正部と、を備えるものである。
 また、本発明における障害物認識装置は、車両の周辺の物体を検知する第1センサと、第1センサにより過去に検出された検出データに基づいて、物体の動きを予測し、現在時刻における予測値を第3物体に関する第3検出データとして生成する予測部と、第1センサで検出された第1物体に関する第1検出データと、予測部により生成された第3物体に関する第3検出データとに基づいて、第1物体と第3物体とが同一物体であるか否かを識別するための指標値を算出する算出部と、指標値と予め設定された閾値とを比較することで、第1物体と第3物体とが同一物体であるか否かを判定する判定部と、判定部により第1物体と第3物体とが同一物体であると判定された場合に、第1検出データと第3検出データとに基づいて第1センサによる検出結果と予測部による生成結果とのバイアス誤差を算出し、前記バイアス誤差をなくすように補正後の検出データを生成する補正部と、を備えるものである。
 また、本発明における障害物認識方法は、算出部、判定部および補正部の機能を実現するコントローラーにより実行される障害物認識方法であって、第1センサで検出された第1物体に関する第1検出データと、第2センサで検出された第2物体に関する第2検出データとに基づいて、第1物体と第2物体とが同一物体であるか否かを識別するための指標値を算出する算出ステップと、指標値と予め設定された閾値とを比較することで、第1物体と前記第2物体とが同一物体であるか否かを判定する判定ステップと、判定ステップにより第1物体と第2物体とが同一物体であると判定された場合に、第1検出データと第2検出データとに基づいて第1センサと第2センサとの検出誤差を算出し、検出誤差をなくすように補正後の検出データを生成する補正ステップと、を備えるものである。
 また、本発明における障害物認識方法は、予測部、算出部、判定部および補正部の機能を実現するコントローラーにより実行される障害物認識方法であって、第1センサにより過去に検出された検出データに基づいて、物体の動きを予測し、現在時刻における予測値を第3物体に関する第3検出データとして生成する予測ステップと、第1センサで検出された第1物体に関する第1検出データと、予測ステップにより生成された第3物体に関する第3検出データとに基づいて、第1物体と第3物体とが同一物体であるか否かを識別するための指標値を算出する算出ステップと、指標値と予め設定された閾値とを比較することで、第1物体と前記第3物体とが同一物体であるか否かを判定する判定ステップと、判定ステップにより前記第1物体と前記第3物体とが同一物体であると判定された場合に、第1検出データと前記第3検出データとに基づいて第1センサによる検出結果と予測ステップによる生成結果とのバイアス誤差を算出し、バイアス誤差をなくすように補正後の検出データを生成する補正ステップと、を備えるものである。
 本発明による障害物認識装置によれば、複数のセンサ情報を組み合わせて障害物を認識する場合に、センサ間のバイアス誤差を補正する構成を備えている。その結果、実際には複数のセンサが同一物体を検出している場合において、別々の物体であると誤認識することなく、正確に同一物体であるか否かを識別することができる障害物認識装置および障害物認識方法を得ることができる。
本発明の実施の形態1、2および3に係る障害物認識装置の構成を示すブロック図である。 本発明の実施の形態1、2および3に係る障害物認識装置の処理を示すフロー図である。 本発明の実施の形態1に係る誤差補正処理を示すフロー図である。 本発明の実施の形態1に係る誤差算出方法の説明図である。 本発明の実施の形態2に係る誤差補正処理を示すフロー図である。 本発明の実施の形態2に係る誤差補正処理の説明図である。 本発明の実施の形態3に係る誤差補正処理を示すフロー図である。 本発明の実施の形態3に係る誤差補正処理の説明図である。 本発明の実施の形態3に係る縦位置相関係数の説明図である。 本発明の実施の形態3に係る横位置相関係数の説明図である。 本発明の実施の形態4、5および6に係る障害物認識装置の構成を示すブロック図である。 本発明の実施の形態4、5および6に係る障害物認識装置の処理を示すフロー図である。 本発明の実施の形態4に係る誤差補正処理を示すフロー図である。 本発明の実施の形態4に係る誤差算出方法の説明図である。 本発明の実施の形態5に係る誤差補正処理を示すフロー図である。 本発明の実施の形態5に係る誤差補正処理の説明図である。 本発明の実施の形態6に係る誤差補正処理を示すフロー図である。 本発明の実施の形態6に係る誤差補正処理の説明図である。 本発明の実施の形態6に係る縦方向位置の相関係数の説明図である。 本発明の実施の形態6に係る横方向位置の相関係数の説明図である。 本発明の実施の形態6に係る検出時刻補正の説明図である。 本発明の実施の形態7に係る検出時刻補正量と相関係数の説明図である。
 以下に、本発明の障害物認識装置および障害物認識方法の好適な実施の形態について、図面を用いて説明する。
 実施の形態1.
 図1は、本発明の実施の形態1に係る障害物認識装置1の構成を示すブロック図である。
 本実施の形態1に係る障害物認識装置1は、制御部10、時刻計測部11、データ受信部12、相関処理部13、更新処理部14、第1センサ100、第2センサ200および車両情報センサ300を備えて構成されている。以下の説明では、これらを障害物認識装置1の各ブロックと称する場合がある。
 第1センサ100および第2センサ200は、物体から放射または反射した光および電磁波を受信して、信号処理および画像処理を適用することで、物体までの距離、方位角、相対速度等を計測するセンサである。具体的には、第1センサ100および第2センサ200は、例えば、ミリ波レーダ、レーザレーダ、超音波センサ、赤外線センサ、光学カメラ等を、それぞれ単独または組み合わせて使用することができる。
 以下の説明では、第1センサ100および第2センサ200が計測した物体の情報を「検出データ」と称する。
 車両情報センサ300は、自車の状態を計測するセンサである。具体的には、車両情報センサ300は、自車の速度、車輪速、ステアリング角、ヨーレート等を計測する。以下、車両情報センサ300が計測した自車の状態を示す情報を「自車データ」と称する。
 制御部10は、障害物認識装置1の機能を統括して制御するECU(Electronic Control Unit)である。また、制御部10は、算出部10a、判定部10b、補正部10cおよび記憶部10dを備えている。
 時刻計測部11は、時刻を計測して、障害物認識装置1内の各ブロックに計測した時刻を出力する機能を備えている。
 データ受信部12は、第1センサ100、第2センサ200および車両情報センサ300から送信される検出データおよび自車データを受信する。データ受信部12は、受信した検出データを、時刻計測部11で計測した時刻と関連づけて、制御部10に出力する。
 以下、説明を簡単にするために、このように検出データに時刻情報を加えたデータを「観測データ」と称する。
 制御部10の算出部10a、判定部10bおよび補正部10cは、後述するバイアス誤差補正処理において予め設定された処理を実行する。
 算出部10aは、バイアス誤差補正処理において、算出値、指標値等の演算処理を行う。
 判定部10bは、算出部10aが算出した指標値と予め設定された閾値条件とを比較することで、選択された物体ペアが同一物体か否かの判定を行う。
 補正部10cは、算出されたバイアス誤差値を用いて、時刻情報を含む検出データである観測データを補正する。
 記憶部10dは、揮発メモリ、不揮発メモリ等で構成される。記憶部10dは、観測データ、算出値、指標値、自車データ、航跡データ等を保存する。また、記憶部10dは、観測データを時系列順に格納した観測データ履歴を作成して保存する。また、記憶部10dには、障害物認識装置1の機能を制御するためのプログラムデータが保存されている。
 相関処理部13は、制御部10から送信された補正後観測データに基づいて、第1センサ100および第2センサ200で検出された物体を対応付ける相関処理を実行し、相関データを生成する。相関処理部13は、補正後観測データおよび相関データを、更新処理部14に出力する。
 更新処理部14は、相関データに基づいて、補正後観測データの物体情報を更新する。 ここで、物体情報とは、第1センサ100または第2センサ200で検出した物体の位置、速度、加速度、種別等の情報である。物体情報の更新は、例えば、カルマンフィルタ、粒子フィルタ等を用いて行うことができる。
 更新された物体情報は、「航跡データ」として、更新処理部14から表示部500に出力される。また、記憶部10dは、更新処理部14によって物体情報の更新が実行されるタイミングにおいて、時刻計測部11が計測した時刻と関連づけて、航跡データを保存する。
 障害物認識装置1の外部に設けられた表示部500は、更新処理部14から出力された航跡データを、画像、文字情報等に加工して表示する。なお、表示部500は、障害物認識装置1の内部に設けるようにしてもよい。
 なお、障害物認識装置1内の各ブロックおよび制御部10内の各ブロックは、それぞれ独立したECUに搭載されるように構成してもよいし、一部または全ブロックが一つのECUに搭載されるように構成してもよい。
 次に、図2のフローチャートを用いて、実施の形態1に係る障害物認識装置1の処理の流れを説明する。
 最初に、データ受信部12は、制御部10からの指令に基づいて、検出データ取得処理を行う(ステップS100)。検出データ取得処理において、データ受信部12は、第1センサ100および第2センサ200から検出データを取得し、車両情報センサ300から自車データを取得する。次に、データ受信部12は、取得した検出データを、時刻計測部11で計測した時刻と関連づけた観測データを生成する。観測データは、データ受信部12から制御部10に出力される。
 次に、制御部10は、バイアス誤差補正処理を行う(ステップS200)。バイアス誤差補正処理においては、まず、制御部10の算出部10aが、データ受信部12から出力された観測データに基づいて、第1センサ100および第2センサ200で検出された物体ペアの物理量の差分値を算出する。ここで、物理量とは、障害物の位置、速度、加速度、種別等の情報であり、以下の説明では、物体情報と称することがある。
 続いて、制御部10の判定部10bは、予め設定された条件に基づいて、選択された物体ペアが同一物体か否かの判定を行う。物体ペアが同一物体であると判定された場合、制御部10は、選択された物体ペアのバイアス誤差を設定または算出する。
 続いて、制御部10の補正部10cが、バイアス誤差値を用いて、時刻情報を含む検出データである観測データを補正してバイアス誤差補正処理を終了する。補正後観測データは、制御部10から相関処理部13に出力される。
 次に、相関処理部13は、相関処理を行う(ステップS300)。相関処理において、相関処理部13は、補正後観測データを用いて、第1センサ100および第2センサ200で検出された物体の対応付けを実行し、相関データを生成する。相関処理部13は、補正後観測データおよび相関データを、更新処理部14に出力する。
 次に、更新処理部14は、物体情報の更新処理を行う(ステップS400)。更新処理部14は、相関データによって対応付けられた第一のセンサと第二のセンサの補正後観測データの物体情報を、例えば、カルマンフィルタ等を用いて更新する。
 以上で、障害物認識装置1は処理を終了する。なお、図2に示す処理は、予め設定された動作周期で、繰り返し実行される。
 次に、図3および図4を用いて、実施の形態1に係る障害物認識装置1のバイアス誤差補正処理の詳細について説明する。
 図3は、本発明の実施の形態1に係る障害物認識装置1のバイアス誤差補正処理の流れを示すフローチャートである。
 図3のステップS10において、障害物認識装置1の制御部10は、記憶部10dに保存されている観測データ履歴から、最古の観測データを削除する。
 続いて、ステップS11において、制御部10は、現周期で取得した最新の観測データを、記憶部10dの観測データ履歴に保存する。ここで、観測データは、時刻情報を含む検出データである。また、検出データは、検出した物体の物理量である、位置、速度、加速度等の数値データである。観測データは、検出したセンサを識別するための番号および記号(以下、センサIDと称する)、検出した物体を識別するための番号および記号(以下、物体IDと称する)に関連づけられて、記憶部10dに保存される。
 次に、ステップS12において、制御部10は、記憶部10dに保存されている観測データに基づいて、第1センサ100および第2センサ200がそれぞれ取得した複数の物体の中から、第1センサ100および第2センサ200について1つずつ物体を選択する。以下、選択した物体のペアを、「選択物体ペア」と称する。
 次に、ステップS13において、制御部10の算出部10aは、第1センサ100の観測データと第2センサ200の観測データ間の誤差値を算出する。具体的には、選択物体ペア間における観測データの物理量の差分値を、誤差値ΔXとして算出する。ΔXの算出方法については、図4を用いて説明する。
 図4は、本発明の実施の形態1に係る観測データ間の誤差ΔXの算出方法を説明する図である。図4の横軸は時刻、縦軸は観測データの物理量である。観測データの物理量は、第1センサ100および第2センサ200が検出した物体の位置、速度、加速度等の数値データである。
 ここで、選択物体ペアにおいて、第1センサ100で検出された物体を、物体ID=idsns1とする。物体ID=idsns1の時刻kにおける観測データを、Xksns1とする。同様に、選択物体ペアにおいて、第2センサ200で検出された物体を、物体ID=idsns2とする。物体ID=idsns2の時刻kにおける観測データを、Xksns2とする。
 制御部10の算出部10aは、Xksns1とXksns2の差分値の絶対値を、時刻kにおける観測データのセンサ間誤差ΔXkとして算出する。
 図3のステップS13において、算出部10aは、図4に示すように、時刻t1~tnに対応した観測データのセンサ間誤差ΔX1~ΔXnを算出する。
 次に、制御部10は、ステップS14に処理を進める。ステップS14において、制御部10の判定部10bは、予め設定された条件(1)に基づいて、S12において設定された選択物体ペアが同一物体であるか否かを判定する。選択物体ペア間の物理量の差分値が小さいほど、選択物体ペアが同一物体である可能性は高くなる。そのため、条件(1)に基づく判定は、例えば以下のように実行することができる。
 条件(1)は、センサ間誤差ΔX1~ΔXnのばらつきの範囲が、予め設定された閾値より小さいこととする。ばらつきの範囲は、ΔX1~ΔXnの最大値から最小値を減算した値、ΔX1~ΔXnの平均値、ΔX1~ΔXnの中央値等を用いることができる。
 ステップS14において、制御部10の判定部10bは、センサ間誤差ΔX1~ΔXnのばらつきの範囲が、予め設定された閾値より小さい場合(S14:Yes)には、選択物体ペアは同一物体であると判定する(ステップS15)。
 一方、ステップS14において、制御部10の判定部10bは、センサ間誤差ΔX1~ΔXnのばらつきの範囲が、予め設定された閾値以上である場合(S14:No)は、選択物体ペアは同一物体ではないと判定する(ステップS21)。
 ステップS15に続いて、制御部10は、ステップS16に処理を進める。
 ステップS16において、制御部10は、選択物体ペアのバイアス誤差値を設定または算出する。バイアス誤差値は、例えば、時刻t1~tnに対応した観測データのセンサ間誤差ΔX1~ΔXnの中から、最新のΔXnをバイアス誤差値として設定することができる。また、ΔX1~ΔXnの平均値、中央値等を算出して、バイアス誤差値として用いてもよい。
 一方、ステップS21に続いて、制御部10は、ステップS22に処理を進める。
 ステップS22において、制御部10は、選択物体ペアのバイアス誤差値を、無効値に設定する。
 ステップS16またはステップS22に続いて、制御部10は、ステップS17に処理を進める。
 ステップS17において、制御部10は、第1センサ100および第2センサ200の観測データ中の物体について、全ての物体ペアが選択済みの場合(S17:Yes)には、ステップS18に処理進める。
 一方、制御部10は、まだ全ての物体ペアが選択済みではない場合(S17:No)には、ステップS12に戻って、新たに選択物体ペアを設定する。
 ステップS18において、制御部10の判定部10bは、選択された全ての物体ペアにおいて、ステップS16において設定されたバイアス誤差値が無効値であるか否かを判定する。選択された全ての物体ペアにおいてバイアス誤差値が無効値に設定されていない場合(S18:No)には、制御部10は、ステップS19に処理を進める。
 一方、選択された全ての物体ペアにおいて、何れか一つでもバイアス誤差値が無効値に設定されている場合(S18:Yes)には、制御部10は、ステップS23に処理を進める。
 ステップS18において、制御部10は、選択された全ての物体ペアにおいて、バイアス誤差値が最小の値となる選択物体ペアを、同一物体と決定する。続いて、制御部10は、ステップS20に処理を進める。
 一方、ステップS23において、制御部10は、選択された全ての物体ペアにおいて同一物体は無いと決定する。すなわち、制御部10は、第1センサ100および第2センサ200の観測データに同一物体が存在しないと決定して、バイアス誤差補正処理を終了する。
 ステップS20において、制御部10の補正部10cは、同一物体と判定された選択物体ペアにおいて、バイアス誤差値を用いて、観測データの補正処理を行う。補正処理は、センサ間の検出誤差であるバイアス誤差をなくすように、例えば、第1センサ100の観測データからバイアス誤差値を減算するようにすればよい。ステップS20の補正処理が終了した後、制御部10はバイアス誤差補正処理を終了する。
 以上説明したステップS15の判定およびステップS19の決定について補足して説明する。
 バイアス誤差補正処理の流れにおいて、第1センサ100および第2センサ200の観測データ中に、検出された物体が1つずつしかない場合は、選択物体ペアの組み合わせは1つのみとなる。そして、その選択物体ペアがステップS15において同一物体と判定された場合は、一意的にステップS16、ステップS17:Yes、ステップS18:Noの順に処理は進み、ステップS19において、選択物体ペアは同一物体として決定される。
 一方、第1センサ100および第2センサ200の観測データにおいて、検出された物体が複数ある場合は、選択物体ペアの組み合わせも複数となる。そのため、最初に選択された選択物体ペアがステップS15において同一物体と判定されたとしても、他により小さいバイアス誤差を持つ選択物体ペアが存在する可能性がある。そのため、制御部10は、全物体ペアのバイアス誤差値の算出が終了するまで、ステップS12からステップS17までの処理を繰り返し実行する。そして、制御部10は、ステップS19において、バイアス誤差値が最小の選択物体ペアを同一物体として決定する。
 以上説明したように、本実施の形態1に係る障害物認識装置によれば、算出した物理量の差分値を判定指標値として、選択した物体ペアが同一物体であるか否かを判定することにより、正確に物体の認識をおこなうことができる。
 実施の形態2.
 次に、本発明の実施の形態2に係る障害物認識装置1の制御処理の流れについて、図5および図6を用いて説明する。
 実施の形態2と実施の形態1では、選択物体ペアが同一物体か否かを判定するために用いる指標値の構成が異なっている。実施の形態2の障害物認識装置1の構成は、実施の形態1の図1で示したブロック図と同様であるため、説明は省略する。
 実施の形態1のバイアス誤差補正処理においては、第1センサ100および第2センサ200の観測データに基づいて、選択物体ペアの物理量の差分値を算出した。そして、算出した物理量の差分値を用いて、選択物体ペアが同一物体か否かを判定する例について説明した。これに対して、実施の形態2では、選択物体ペアの移動軌跡を多項式で近似し、近似した多項式の係数の差分値を算出して、選択物体ペアが同一物体か否かを判定する。
 図5は、本発明の実施の形態2に係る障害物認識装置1の処理の流れを示すフローチャートである。実施の形態1と同様の部分は同じ符号を付して説明を省略する。
 図5のステップS10における最古の観測データの削除およびステップS11における最新の観測データの追加処理は、実施の形態1で説明した図3と同様のため説明を省略する。
 次に、ステップS30において、制御部10は、第1センサ100および第2センサ200の観測データを、自車データを用いて、対地座標系に変換する処理を行う。以下、このように対地座標系に変換した観測データを、「座標変換データ」と称する。座標変換データは、記憶部10dに保存される。
 次に、ステップS31において、制御部10の算出部10aは、座標変換データを用いて、第1センサ100および第2センサ200が検出した物体の移動軌跡を算出する。
 図6は、本発明の実施の形態2に係る、検出物体の移動軌跡の算出方法を説明する図である。図6には、各時刻において、第1センサ100が検出した物体および第2センサ200が検出した物体の座標変換データが示されている。図6には、物体を検出した7つの時刻における座標変換データが、対地座標系xy上にプロットされている。
 物体の移動軌跡は、多項式y=C0+C1*X+C2*X^2+C3*X^3で近似することができる。図6に示すように、第1センサ100が検出した物体の移動軌跡は、多項式ysns1=C0sns1+C1sns1*X+C2sns1*X^2+C3sns1*X^3となる。同様に、第2センサ200が検出した物体の移動軌跡は、多項式ysns2=C0sns2+C1sns2*X+C2sns2*X^2+C3sns2*X^3となる。
 算出部10aは、座標変換データを用いて、移動軌跡を近似する多項式y=C0+C1*X+C2*X^2+C3*X^3の係数C0、C1、C2、C3を算出することによって、移動軌跡を算出する。
 具体的には、算出部10aは、第1センサ100が検出した物体の多項式ysns1=C0sns1+C1sns1*X+C2sns1*X^2+C3sns1*X^3の係数C0sns1、C1sns1、C2sns1、C3sns1を算出する。同様に、算出部10aは、第2センサ200が検出した物体の多項式ysns2=C0sns2+C1sns2*X+C2sns2*X^2+C3sns2*X^3の係数C0sns2、C1sns2、C2sns2、C3sns2を算出する。
 次に、ステップS32において、制御部10は、記憶部10dに保存されている第1センサ100および第2センサ200の座標変換データ中の複数の物体の中から、第1センサ100および第2センサ200についてそれぞれ1つずつ物体を選択して、選択物体ペアを設定する。
 次に、ステップS33において、制御部10の算出部10aは、選択物体ペアの移動軌跡を比較するために、上記多項式の係数の差分値の絶対値を算出する。
 ここで、係数C0、C1、C2、C3の差分値の絶対値を、それぞれΔC0、ΔC1、ΔC2、ΔC3とする。図6に示す2つの移動軌跡の場合、算出部10aは、ΔC0=abs(C0sns1-C0sns2)、ΔC1=abs(C1sns1-C1sns2)、ΔC2=abs(C2sns1-C2sns2)、ΔC3=abs(C3sns1-C3sns2)を算出する。
 続いて、ステップS34において、制御部10の判定部10bは、予め設定された条件(2)に基づいて、選択物体ペアが同一物体であるか否かを判定する。選択物体ペアの移動軌跡の近似度が高いほど、選択物体ペアが同一物体である可能性は高くなる。そのため、条件(2)に基づく判定は、例えば以下のように実行することができる。
 まず、制御部10は、係数差分値の絶対値ΔC0、ΔC1、ΔC2、ΔC3に対して、予めそれぞれに対応する閾値を設定する。そして、ステップS34において、制御部10の判定部10bは、ΔC0、ΔC1、ΔC2、ΔC3のすべてが、それぞれ予め設定された閾値より小さい場合(S34:Yes)には、選択物体ペアは同一物体であると判定する(ステップS15)。
 一方、ステップS34において、制御部10の判定部10bは、ΔC0、ΔC1、ΔC2、ΔC3の何れか1つが、予め設定された閾値以上である場合(S34:No)には、選択物体ペアは同一物体ではないと判定する(ステップS21に処理を進める)。
 ステップS34に続くステップS15およびステップS21以降の処理は、実施の形態1で説明した図3と同様であるため、説明を省略する。
 以上説明したように、本実施の形態2に係る障害物認識装置によれば、対地座標系における選択物体ペアの移動軌跡の近似度を判定指標値として、選択した物体ペアが同一物体であるか否かを判定することにより、正確に物体の認識をおこなうことができる。
 実施の形態3.
 次に、本発明の実施の形態3に係る障害物認識装置1の制御処理の流れについて、図7および図8A~図8Cを用いて説明する。
 実施の形態3と実施の形態1および2では、選択物体ペアが同一物体か否かを判定するために用いる算出値の構成が異なっている。実施の形態3の障害物認識装置1の構成は、実施の形態1の図1で示したブロック図と同様であるため、説明は省略する。
 実施の形態1のバイアス誤差補正処理においては、選択物体ペアの物理量の差分値を算出して、選択物体ペアが同一物体か否かを判定する例について説明した。また、実施の形態2では、選択物体ペアの移動軌跡をそれぞれ多項式で近似し、近似した多項式の係数の差分値を算出して、選択物体ペアが同一物体か否かを判定する例について説明した。
 これに対して、実施の形態3では、選択物体ペアの対地座標位置の時系列データに基づいて相関係数を算出し、算出した相関係数に基づいて、選択物体ペアが同一物体か否かを判定する。
 次に、図7および図8A~図8Cを用いて、実施の形態3に係る障害物認識装置1のバイアス誤差補正処理の詳細について説明する。
 図7は、本発明の実施の形態3に係る障害物認識装置1の処理の流れを示すフローチャートである。また、図8Aは、本発明の実施の形態3に係る障害物認識装置1の誤差補正処理の説明図、図8Bは縦位置相関係数の説明図、図8Cは横位置相関係数の説明図である。実施の形態1または実施形態2と同様の部分は同じ符号を付して説明を省略する場合がある。
 図7のステップS10における最古の観測データの削除およびステップS11における最新の観測データの追加処理は、実施の形態1で説明した図3と同様のため説明を省略する。
 次に、実施の形態2と同様に、ステップS30において、制御部10は、第1センサ100および第2センサ200の観測データを、自車データを用いて、対地座標系に変換する処理を行う。
 次に、実施の形態2と同様に、ステップS32において、制御部10は、記憶部10dに保存されている座標変換データに基づいて、第1センサ100および第2センサ200がそれぞれ取得した複数の物体の中から、第1センサ100および第2センサ200について1つずつ物体を選択する。選択した物体の座標変換データのペアを選択する。
 次に、ステップS40において、制御部10の算出部10aは、座標変換データを用いて、選択物体ペアの相関係数を算出する。
 図8A~図8Cは、本発明の実施の形態3に係る、選択物体ペアの相関係数rの算出方法を説明する図である。
 図8Aでは、対地座標系xyに対応して、時刻t1~tnにおける物体の縦方向位置をposX、横方向位置をposYとしている。そして、図8Aの各プロットは、時刻t1~tnにおいて、第1センサ100が検出した物体の座標変換データX1_sns1~Xn_sns1および第2センサ200が検出した物体の座標変換データX1_sns2~Xn_sns2を示している。
 すなわち、図8Aに示すX1_sns1~Xn_sns1は、第1センサ100が検出した物体の時刻t1~tnにおける縦方向位置(PosXsns1)である。同様に、X1_sns2~Xn_sns2は、第2センサ200が検出した物体の時刻t1~tnにおける縦方向位置(PosXsns2)である。
 また、図示しないY1_sns1~Yn_sns1は、第1センサ100が検出した物体の時刻t1~tnにおける横方向位置(PosYsns1)である。同様に、図示しないY1_sns2~Yn_sns2は、第2センサ200が検出した物体の時刻t1~tnにおける縦方向位置(PosYsns2)である。
 ステップS40において、制御部10の算出部10aは、選択物体ペアについて、時刻t1~tnにおける縦方向位置PosXsns1およびPosXsns2、並びに、横方向位置PosYsns1およびPosYsns2を算出する。
 続いて、算出部10aは、縦方向位置(PosXsns1、PosXsns2)の相関係数rposXおよび横方向位置(PosYsns1、PosYsns2)の相関係数rposYを算出する。
 図8Bは、縦方向位置(PosXsns1、PosXsns2)の相関係数rposXの算出方法の例を説明する図である。図8Bの横軸は第2センサ200が検出した物体の縦方向位置(PosXsns2)であり、図8Bの縦軸は第1センサ100が検出した物体の縦方向位置(PosXsns1)である。
 図8Bに示すように、時刻t1~tnにおける縦方向位置を示すPosXsns1_tiとPosXsns2_ti(i=1、2、・n)の2組のデータ列{(PosXsns1_ti、PosXsns2_ti)}を変数としたときの相関係数rposXを算出する。
 図8Cは、横方向位置(PosXsns1、PosXsns2)の相関係数rposYの算出方法の例を説明する図である。図8Cの横軸は第2センサ200が検出した物体の横方向位置(PosYsns2)であり、図8Cの縦軸は第1センサ100が検出した物体の横方向位置(PosYsns1)である。
 図8Cに示すように、算出部10aは、時刻t1~tnにおける横方向位置を示すPosYsns1_tiとPosYsns2_ti(i=1、2、・n)の2組のデータ列{(PosYsns1_ti、PosYsns2_ti)}を変数としたときの相関係数rposYを算出する。
 続いて、ステップS41において、制御部10の判定部10bは、予め設定された条件(3)に基づいて、選択物体ペアが同一物体であるか否かを判定する。上記のように算出した相関係数が大きいほど、選択物体ペアが同一物体である可能性は高くなる。そのため、条件(3)に基づく判定は、例えば以下のように実行することができる。
まず、制御部10は、相関係数rposXおよびrposYに対して、予めそれぞれに対応する閾値を設定する。ステップS41おいて、制御部10の判定部10bは、相関係数rposXおよびrposYの両方が、それぞれ予め設定された閾値以上である場合(S41:Yes)には、選択物体ペアは同一物体であると判定する。そして、制御部10は、ステップS15に処理を進める。
 一方、ステップS41において、制御部10の判定部10bは、相関係数rposXおよびrposYの何れか1つが、予め設定された閾値より小さい場合(S41:No)には、選択物体ペアは同一物体ではないと判定する。そして、制御部10は、ステップS21に処理を進める。
 ステップS41に続くステップS15およびステップS21以降の処理は、実施の形態1で説明した図3と同様であるため、説明を省略する。
 以上説明したように、実施の形態3に係る障害物認識装置によれば、選択物体ペアの対地座標位置の時系列データを用いて算出した相関係数を判定指標値として、選択した物体ペアが同一物体であるか否かを判定することにより、正確に物体の認識をおこなうことができる。
 実施の形態4.
 次に、本発明の実施の形態4に係る障害物認識装置2について、図9~図12を用いて説明する。
 実施の形態1~3のバイアス誤差補正処理においては、第1センサ100および第2センサ200の観測データに基づいて、選択物体ペアが同一物体か否かを判定する例について説明した。
 これに対して、実施の形態4に係る障害物認識装置2は、実施の形態1~3に係る障害物認識装置1の構成に加えて、予測処理部を備えている。実施の形態4では、第1センサ100または第2センサ200の観測データと、予測処理部で算出した予測データに基づいて、選択物体ペアが同一物体か否かを判定する例について説明する。なお、以下の説明では、実施の形態1~3と同様の部分は同じ符号を付して説明を省略する場合がある。
 また、以下の説明では、第1センサ100の観測データと予測データを使用する場合について説明するが、第1センサ100の観測データの代わりに第2センサ200の観測データを使用することも可能である。
 図9は、本発明の実施の形態4に係る障害物認識装置2の構成を示すブロック図である。本実施の形態4に係る障害物認識装置2は、図1に示す実施の形態1~3に係る障害物認識装置1の構成に加えて、予測部10eを備えている。
 次に、図10のフローチャートを用いて、実施の形態4に係る障害物認識装置2の処理の流れを説明する。
 図2に示す実施の形態1のフローチャートと異なり、図10に示す実施の形態4のフローチャートにおいては、最初に、予測処理(ステップS500)が実行される。
 具体的には、予測部10eは、前周期における更新処理(ステップS400)で更新された物体情報である航跡データを基づいて、現時刻における物体の航跡の状態の予測データを算出する予測処理(ステップS500)を行う。ここで、物体の航跡の状態とは、検出した物体の位置、速度、加速度、属性情報等である。
 算出された予測データは、予測部10eから記憶部10dに送信される。記憶部10dは、予測データを時系列順に格納した予測データ履歴を作成して保存する。
 次に、データ受信部12は、検出データ取得処理を行う(ステップS100)。検出データ取得処理については、実施の形態1~3のステップS100と同様である。なお、以下に説明するように、第1センサ100の観測データをバイアス誤差補正処理に使用する場合は、第2センサ200の観測データを取得する必要はない。
 次に、制御部10は、バイアス誤差補正処理を行う(ステップS200)。バイアス誤差補正処理においては、まず、制御部10の算出部10aが、データ受信部12から出力された観測データおよび予測部10eから出力された予測データに基づいて、第1センサ100で検出された物体および予測データ中の物体の物理量の差分値を算出する。
 続いて、制御部10の判定部10bは、予め設定された条件に基づいて、第1センサ100の観測データおよび予測データから選択された物体ペアが、同一物体か否かの判定を行う。物体ペアが同一物体であると判定された場合、制御部10は、選択された物体ペアの第1センサ100の観測データと予測データ間の誤差(以下、実施の形態1~3と同様にバイアス誤差と称する)を設定または算出する。
 続いて、制御部10の補正部10cは、バイアス誤差値を用いて、観測データを補正して、バイアス誤差補正処理を終了する。補正後観測データは、制御部10から相関処理部13に出力される。
 次に、相関処理部13は、相関処理を行う(ステップS300)。相関処理において、相関処理部13は、補正後観測データを用いて、第1センサ100の補正後観測データと予測データの対応付けを実行し、相関データを生成する。相関処理部13は、補正後観測データおよび相関データを、更新処理部14に出力する。
 次に、更新処理部14は、物体情報の更新処理を行う(ステップS400)。更新処理部14は、相関データによって第1センサ100の補正後観測データと予測データの物体情報を、例えば、センサフュージョンを行うことによって更新する。
 以上で、障害物認識装置2は処理を終了する。なお、図10に示す処理は、予め設定された動作周期で、繰り返し実行される。
 次に、図11および図12を用いて、実施の形態4に係る障害物認識装置2のバイアス誤差補正処理の詳細について説明する。
 図11は、本発明の実施の形態4に係る障害物認識装置2のバイアス誤差補正処理の流れを示すフローチャートである。
 実施の形態4におけるバイアス誤差補正処理は、実施の形態1における第2センサ200の観測データを予測データに置き換えた場合の処理と同様である。そのため、以下の説明では、実施の形態1と同様の部分は同じ符号を付して説明を省略する場合がある。
 図11のステップS50において、障害物認識装置2の制御部10は、記憶部10dに保存されている観測データのうち、最古の観測データを削除する。また、制御部10は、記憶部10dに保存されている予測データのうち、最古の予測データを削除する。
 続いて、ステップS51において、制御部10は、現周期で取得した最新の観測データを、記憶部10dの観測データ履歴に保存する。また、制御部10は、現周期の予測データを、記憶部10dの観測データ履歴に保存する。
 次に、ステップS52において、制御部10は、記憶部10dに保存されている第1センサ100の観測データ中および予測データ中の複数の物体の中から、それぞれ1つずつ物体を選択して、選択物体ペアを設定する。
 次に、ステップS53において、制御部10の算出部10aは、選択物体ペア間における第1センサ100の観測データと予測データの物理量の差分値を、誤差値ΔXとして算出する。なお、ステップS53の処理は、実施の形態1のステップS13における第2センサ200の観測データを、予測データに変更した処理である。ΔXの算出方法については、図11を用いて説明する。
 図12は、本発明の実施の形態4に係る観測データと予測データ間の誤差ΔXの算出方法を説明する図である。
 ここで、選択物体ペアにおいて、第1センサ100で検出された物体を、物体ID=idsns1とする。物体ID=idsns1の時刻kにおける観測データを、Xksns1とする。同様に、選択ペアにおいて、予測データ中の物体を、物体ID=idsredとする。物体ID=idsredの時刻kにおける観測データを、Xksredとする。
 時刻kにおける観測データと予測データ間誤差ΔXkは、Xksns1とXksredとの差分値の絶対値とすることができる。図10のステップS53において、制御部10の算出部10aは、図11に示すように、時刻t1~tnに対応した誤差ΔX1~ΔXnを算出する。
 図11に戻り、制御部10は、ステップS54に処理を進める。ステップS54において、制御部10の判定部10bは、予め設定された条件(1)’に基づいて、ステップS52において設定された選択物体ペアが同一物体であるか否かを判定する。
 条件(1)’に基づく判定は、例えば以下のように実行することができる。
 ステップS54において、制御部10の判定部10bは、誤差ΔX1~ΔXnのばらつきの範囲が、予め設定された閾値より小さい場合(S54:Yes)には、選択物体ペアは同一物体であると判定する(ステップS15)。
 一方、ステップS54において、制御部10の判定部10bは、センサ間誤差ΔX1~ΔXnのばらつきの範囲が、予め設定された閾値以上である場合(S54:No)は、選択物体ペアは同一物体ではないと判定する(ステップS21)。ばらつきの範囲は、ΔX1~ΔXnの最大値から最小値を減算した値、ΔX1~ΔXnの平均値、ΔX1~ΔXnの中央値等を用いることができる。
 ステップS15に続いて、制御部10は、ステップS16に処理を進める。
 ステップS16において、制御部10は、選択物体ペアのバイアス誤差値を設定する。バイアス誤差値は、例えば、時刻t1~tnに対応した観測データのセンサ間誤差ΔX1~ΔXnの中から、最新のΔXnをバイアス誤差値として用いることができる。また、ΔX1~ΔXnの平均値、中央値等をバイアス誤差値として用いてもよい。
 一方、ステップS21に続いて、制御部10は、ステップS22に処理を進める。
 ステップS22において、制御部10は、選択物体ペアのバイアス誤差値を、無効値に設定する。
 ステップS16またはステップS22に続いて、制御部10は、ステップS57に処理を進める。
 ステップS57において、制御部10は、第1センサ100の観測データ中および予測データ中の物体について、全ての物体ペアが選択済みの場合(S57:Yes)には、ステップS18に処理進める。
 一方、制御部10は、全ての物体ペアが選択済みではない場合(S57:No)には、ステップS52に戻って、新たに選択物体ペアを設定する。
 ステップS18において、制御部10の判定部10bは、選択された全ての物体ペアにおいて、ステップS16において設定されたバイアス誤差値が無効値であるか否かを判定する。選択された全ての物体ペアにおいてバイアス誤差値が無効値ではない場合(S18:No)には、制御部10は、ステップS19に処理を進める。一方、選択された全ての物体ペアにおいてバイアス誤差値が無効値ではない場合(S18:Yes)には、制御部10は、ステップS23に処理を進める。
 ステップS18において、制御部10は、選択された全ての物体ペアにおいてバイアス誤差値が最小の値となる選択物体ペアを、同一物体と決定する。続いて、制御部10は、ステップS20に処理を進める。
 ステップS23において、制御部10は、選択された全ての物体ペアにおいて同一物体が無いと決定して、バイアス誤差補正処理を終了する。
 ステップS20において、制御部10の補正部10cは、同一物体と判定された選択物体ペアにおいて、バイアス誤差値を用いて、第1センサ100の観測データの補正処理を行う。補正処理は、バイアス誤差をなくすように、例えば、第1センサ100の観測データからバイアス誤差値を減算するようにすればよい。ステップS20の補正処理が終了した後、制御部10はバイアス誤差補正処理を終了する。
 なお、以上説明したバイアス誤差補正処理において、観測データは、第1センサ100または第2センサ200の何れか一方のみを使用すればよい。そのため、障害物認識装置2においては、第1センサ100または第2センサ200の何れか1つを省略可能である。または、第1センサ100または第2センサ200の何れか一方のみを優先的に選択して使用するように設定してもよい。
 以上説明したように、本実施の形態4に係る障害物認識装置によれば、バイアス誤差補正処理において、第1センサ100または第2センサ200の観測データと、予測処理部で算出した予測データから物理量を算出する。続いて、算出した物理量の差分値を判定指標値として、選択した物体ペアが同一物体であるか否かを判定することにより、正確に物体の認識をおこなうことができる。
 実施の形態5.
 次に、本発明の実施の形態5に係る障害物認識装置2について、図13および図14を用いて説明する。
実施の形態5と実施の形態4では、選択物体ペアが同一物体か否かを判定するために用いる指標値の構成が異なっている。実施の形態6の障害物認識装置2の構成は、実施の形態4の図9で示したブロック図と同様であるため、説明は省略する。
 実施の形態4のバイアス誤差補正処理においては、第1センサ100または第2センサ200の観測データと、予測処理部で算出した予測データに基づいて、選択物体ペアの物理量の差分値を算出した。そして、算出した物理量の差分値を用いて、選択物体ペアが同一物体か否かを判定する例について説明した。
 これに対して、実施の形態5では、実施の形態4と同様に予測データを用いる構成において、選択物体ペアの移動軌跡を多項式で近似し、近似した多項式の係数の差分値を算出して、選択物体ペアが同一物体か否かを判定する例について説明する。
 すなわち、実施の形態5におけるバイアス誤差補正処理は、実施の形態2における第1センサ100の観測データまたは第2センサ200の観測データの何れか一方を、予測データに置き換えた場合の処理と同様である。そのため、以下の説明では、実施の形態1~4と同様の部分は同じ符号を付して説明を省略する場合がある。
 なお、以下の説明では、第1センサ100の観測データと予測データを使用する場合について説明するが、第1センサ100の観測データの代わりに第2センサ200の観測データを使用することも可能である。
 次に、図13および図14を用いて、実施の形態5に係る障害物認識装置2のバイアス誤差補正処理の詳細について説明する。
 図13は、本発明の実施の形態5に係る障害物認識装置2のバイアス誤差補正処理の流れを示すフローチャートである。
 図13のステップS50において、障害物認識装置2の制御部10は、記憶部10dに保存されている観測データのうち、最古の観測データを削除する。また、制御部10は、記憶部10dに保存されている予測データのうち、最古の予測データを削除する。
 続いて、ステップS51において、制御部10は、現周期で取得した最新の観測データを、記憶部10dの観測データ履歴に保存する。また、制御部10は、現周期の予測データを、記憶部10dの観測データ履歴に保存する。
 次に、ステップS60において、制御部10は、第1センサ100の観測データおよび予測データを、自車データを用いて、対地座標系に変換する処理を行う。座標変換データは、記憶部10dに保存される。
 次に、ステップS61において、制御部10の算出部10aは、座標変換データを用いて、第1センサ100の観測データ中および予測データ中の物体の移動軌跡を算出する。移動軌跡を近似する多項式は、実施の形態2と同様である。
 図14は、本発明の実施の形態5に係る、検出物体の移動軌跡の算出方法を説明する図である。図14においては、実施の形態2の図6における第2センサ200が検出した物体の座標変換データが、予測データ中の物体の座標変換データに置き換えられている。
 算出部10aは、第1センサ100が検出した物体の移動軌跡の多項式ysns1=C0sns1+C1sns1*X+C2sns1*X^2+C3sns1*X^3の係数C0sns1、C1sns1、C2sns1、C3sns1を算出する。同様に、算出部10aは、予測データの物体の移動軌跡の多項式ypred=C0pred+C1pred*X+C2pred*X^2+C3pred*X^3の係数C0pred、C1pred、C2pred、C3predを算出する。
 次に、ステップS62において、制御部10は、記憶部10dに保存されている第1センサ100の観測データ中および予測データ中の複数の物体の中から、それぞれ1つずつ物体を選択して、選択物体ペアを設定する。
 次に、ステップS63において、制御部10の算出部10aは、選択物体ペア間における移動軌跡を近似する多項式の係数の差分値の絶対値ΔC0、ΔC1、ΔC2、ΔC3を算出する。図14に示す2つの移動軌跡の場合、ΔC0=abs(C0sns1-C0pred)、ΔC1=abs(C1sns1-C1pred)、ΔC2=abs(C2sns1-C2pred)、ΔC3=abs(C3sns1-C3pred)を算出する。
 続いて、ステップS64において、制御部10の判定部10bは、予め設定された条件(2)’に基づいて、選択物体ペアが同一物体であるか否かを判定する。条件(2)’に基づく判定は、例えば以下のように実行することができる。
 まず、制御部10は、係数差分値の絶対値ΔC0、ΔC1、ΔC2、ΔC3に対して、予めそれぞれに対応する閾値を設定する。そして、ステップS64において、制御部10の判定部10bは、ΔC0、ΔC1、ΔC2、ΔC3のすべてが、それぞれ予め設定された閾値より小さい場合(S64:Yes)には、選択物体ペアは同一物体であると判定する(ステップS15)に処理を進める。
 一方、ステップS64において、制御部10の判定部10bは、ΔC0、ΔC1、ΔC2、ΔC3の何れか1つが、予め設定された閾値以上である場合(S64:No)には、選択物体ペアは同一物体ではないと判定する(ステップS21)。
 ステップS64に続くステップS15およびステップS21以降の処理は、実施の形態4で説明した図11と同様であるため、説明を省略する。
 以上説明したように、本実施の形態5に係る障害物認識装置によれば、第1センサ100または第2センサ200の観測データと、予測処理部で算出した予測データから対地座標系における選択物体ペアの移動軌跡を算出する。続いて、算出した選択物体ペアの移動軌跡の近似度を判定指標値として、選択した物体ペアが同一物体であるか否かを判定することにより、正確に物体の認識をおこなうことができる。
 実施の形態6.
 次に、本発明の実施の形態6に係る障害物認識装置2について、図15および図16A~図16Cを用いて説明する。
 実施の形態6と実施の形態4および5では、選択物体ペアが同一物体か否かを判定するために用いる指標値の構成が異なっている。実施の形態6の障害物認識装置2の構成は、実施の形態4の図9で示したブロック図と同様であるため、説明は省略する。
 実施の形態4のバイアス誤差補正処理においては、第1センサ100または第2センサ200の観測データと、予測処理部で算出した予測データに基づいて、選択物体ペアの物理量の差分値を算出した。そして、算出した物理量の差分値を用いて、選択物体ペアが同一物体か否かを判定する例について説明した。また、実施の形態5では、実施の形態4と同様に予測データを用いる構成において、選択物体ペアの移動軌跡をそれぞれ多項式で近似し、近似した多項式の係数の差分値を算出して、選択物体ペアが同一物体か否かを判定する例について説明した。
 これに対して、実施の形態6では、実施の形態4と同様に予測データを用いる構成において、選択物体ペアの対地座標位置の時系列データに基づいて相関係数算出し、算出した相関係数に基づいて、選択物体ペアが同一物体か否かを判定する。
 すなわち、実施の形態6におけるバイアス誤差補正処理は、実施の形態3における第1センサ100の観測データまたは第2センサ200の観測データの何れか一方を、予測データに置き換えた場合の処理と同様である。そのため、以下の説明では、実施の形態1~5と同様の部分は同じ符号を付して説明を省略する場合がある。
 なお、以下の説明では、第1センサ100の観測データと予測データを使用する場合について説明するが、第1センサ100の観測データの代わりに第2センサ200の観測データを使用することも可能である。
 次に、図15および図16A~図16Cを用いて、実施の形態6に係る障害物認識装置2のバイアス誤差補正処理の詳細について説明する。
 図15は、本発明の実施の形態6に係る障害物認識装置2の処理の流れを示すフローチャートである。図16Aは、本発明の実施の形態6に係る障害物認識装置2の誤差補正処理の説明図、図16Bは縦位置相関係数の説明図、図16Cは横位置相関係数の説明図である。
 図15のステップS50における最古の観測データおよび最古の予測データの削除およびステップS51における最新の観測データおよび最新の予測データの追加処理は、実施の形態5で説明した図13と同様のため説明を省略する。
 次に、実施の形態5と同様に、ステップS60において、制御部10は、第1センサ100の観測データおよび予測データを、自車データを用いて、対地座標系に変換する処理を行う。
 次に、実施の形態4と同様に、ステップS52において、制御部10は、記憶部10dに保存されている第1センサ100の観測データ中および予測データ中の複数の物体の中から、それぞれ1つずつ物体を選択して、選択物体ペアを設定する。
 次に、実施の形態3と同様に、ステップS40において、制御部10の算出部10aは、座標変換データを用いて、選択物体ペアの相関係数を算出する。
 図16A~図16Cは、本発明の実施の形態6に係る、選択物体ペアの相関係数rの算出方法を説明する図である。
 図16Aに示すX1_sns1~Xn_sns1は、第1センサ100が検出した物体の時刻t1~tnにおける縦方向位置(PosXsns1)である。同様に、X1_ pred~Xn_ predは、予測データの時刻t1~tnにおける縦方向位置(PosXpred)である。
 また、図示しないY1_sns1~Yn_sns1は、第1センサ100が検出した物体の時刻t1~tnにおける横方向位置(PosYsns1)である。同様に、図示しないY1_ pred~Yn_ predは、予測データの時刻t1~tnにおける縦方向位置(PosYpred)である。
 ステップS70において、制御部10の算出部10aは、選択物体ペアについて、時刻t1~tnにおける縦方向位置PosXsns1およびPosXpred、並びに、横方向位置PosYsns1およびPosYpredを算出する。
 続いて、算出部10aは、縦方向位置(PosXsns1、PosXpred)の相関係数rposXおよび横方向位置(PosYsns1、PosYpred)の相関係数rposYを算出する。
 図16Bは、縦方向位置(PosXsns1、PosXpred)の相関係数rposXの算出方法の例を説明する図である。
 図16Bに示すように、算出部10aは、時刻t1~tnにおける縦方向位置を示すPosXsns1_tiとPosXpred_ti(i=1、2、・n)の2組のデータ列{(PosXsns1_ti、PosXpred_ti)}を変数としたときの相関係数rposXを算出する。
 図16Cは、横方向位置(PosXsns1、PosXpred)の相関係数rposYの算出方法の例を説明する図である。
 図16Cに示すように、算出部10aは、時刻t1~tnにおける横方向位置を示すPosYsns1_tiとPosYpred_ti(i=1、2、・n)の2組のデータ列{(PosYsns1_ti、PosYpred_ti)}を変数としたときの相関係数rposYを算出する。
 続いて、ステップS71において、制御部10の判定部10bは、予め設定された条件(3)'に基づいて、選択物体ペアが同一物体であるか否かを判定する。条件(3)'に基づく判定は、例えば以下のように実行することができる。
 まず、制御部10は、相関係数rposXおよびrposYに対して、予めそれぞれに対応する閾値を設定する。ステップS41おいて、制御部10の判定部10bは、相関係数rposXおよびrposYの両方が、それぞれ予め設定された閾値以上である場合(S71:Yes)には、選択物体ペアは同一物体であると判定する。そして、制御部10は、ステップS15に処理を進める。
 一方、ステップS71において、制御部10の判定部10bは、相関係数rposXおよびrposYの何れか1つが、予め設定された閾値より小さい場合(S71:No)には、選択物体ペアは同一物体ではないと判定する。そして、制御部10は、ステップS21に処理を進める。
 ステップS71に続くステップS15およびステップS21以降の処理は、実施の形態4で説明した図9と同様であるため、説明を省略する。
 以上説明したように、本実施の形態6に係る障害物認識装置によれば、バイアス誤差補正処理において、第1センサ100または第2センサ200の観測データと、予測処理部で算出した予測データから、対地座標系における選択物体ペアの位置の相関係数を算出する。続いて、算出した相関係数を判定指標値として、選択した物体ペアが同一物体であるか否かを判定することにより、正確に物体の認識をおこなうことができる。
 実施の形態7.
 実施の形態7は、実施の形態1~6で説明した障害物認識装置1および障害物認識装置2において、検出データの検出時刻に対してセンサの遅延時間に基づく補正を行う構成を備えている。以下、検出データに検出時刻にセンサの遅延時間に基づく補正を行う処理を、検出時刻の補正処理と称する。
 センサにはセンサの種類等に対応した遅延時間が存在する。センサの遅延時間とは、例えば、検出物体がセンサの検出領域内に入ってから、センサの出力が実行されるまでの時間であり、センサの応答時間とも言う。そのため、センサの遅延時間を考慮しない場合は、検出データに時間的なずれが生じてしまう可能性がある。
 以下、本発明の実施の形態7に係る検出時刻の補正処理について説明する。
 まず、検出時刻の補正処理を実行するタイミングについて説明する。
 実施の形態1の図2(障害物認識装置1)および実施の形態4の図10(障害物認識装置2)で説明したように、検出データ取得処理(ステップS100)において、データ受信部12は、センサから検出データを取得する。続いて、データ受信部12は、取得した検出データを、時刻計測部11で計測した時刻と関連づけて観測データを生成する。
 ここで、センサに遅延時間が無い場合は、データ受信部12がセンサから検出データを受信した時刻を時刻計測部11で計測し、観測データとしてそのまま適用することができる。しかしながら、センサに遅延時間がある場合は、データ受信部12がセンサからの受信した時刻と、実際にセンサが物体を検出した時刻にずれが生じてしまうことになる。
 すなわち、検出時刻の補正処理とは、観測データに含まれる時刻情報を補正する処理である。そのため、検出時刻の補正処理は、データ受信部12が検出データを取得した後から、制御部10が観測データを用いてバイアス誤差補正処理を実行する前までの期間に行うようにすると好適である。
 検出時刻の補正処理実行のタイミングとしては、データ受信部12が観測データを生成する際に実行するように設定することができる。
 または、データ受信部12は検出データの取得および出力を行い、制御部10の算出部10aが、検出時刻の補正処理を行うようにしてもよい。その場合は、データ受信部12が制御部10に検出データを出力し、続いて、制御部10の算出部10aが、検出時刻の補正処理を行うようにすればよい。
 以下の説明では、制御部10の算出部10aが検出時刻の補正処理を行う場合について説明する。
 次に、検出時刻の補正処理の内容の詳細について説明する。
 障害物認識装置1においては、第1センサ100および第2センサ200の遅延時間が既知である場合には、制御部10の算出部10aは、既知の遅延時間を第1センサ100および第2センサ200の検出データにそれぞれ加算することで、検出時刻の補正処理を行う。
 次に、障害物認識装置1において、第1センサ100および第2センサ200の観測データを用いた検出時間の補正方法について、図17Aおよび図17B用いて説明する。
 図17Aは、第1センサ100および第2センサ200の時系列の観測データを示している。また、図17Bは、検出時間の補正量(以下、シフト時間と称する)と時系列データの相関係数rの関係を示している。制御部10は、図17Bに示すシフト時間と相関係数rの関係に基づいて、遅延時間を推定する。
 まず、制御部10は、第1センサ100および第2センサ200の時系列の観測データから、時系列データの相関係数r0を算出する。
 次に、制御部10は、図17Aに示すように、第1センサ100の時系列の観測データを、1周期分に相当するシフト時間Δtの分だけ、時刻が増加する方向にシフトさせる。続いて、制御部10は、Δtシフトさせた第1センサ100の時系列の観測データと、第2センサ200の時系列の観測データから、時系列データの相関係数r(Δt)を算出する。
 次に、制御部10は、図17Aに示すように、第1センサ100の時系列の観測データを、2周期分に相当するシフト時間2*Δtの分だけ、時刻が増加する方向にシフトさせる。続いて、制御部10は、2*Δtシフトさせた第1センサ100の時系列の観測データと、第2センサ200の時系列の観測データから、時系列データの相関係数r(2*Δt)を算出する。
 同様に、制御部10は、第1センサ100の時系列の観測データを、3*Δt、4*Δt、5*Δt、-1*Δt、-2*Δtとシフトさせ、それぞれ相関係数を算出する。
 図17Bは、シフト時間を横軸として、上記のように算出した時系列データの相関係数rをプロットした図である。図17Bの例では、時系列データの相関係数rは、シフト時間が2*Δtの時に最大となっている。
 制御部10は、時系列データの相関係数rが最大となるシフト時間(図17Aでは2*Δt)を遅延時間の推定値として設定する。続いて、制御部10の算出部10aは、設定された遅延時間の推定値を用いて第1センサ100の時系列の観測データを補正する。
 検出時間補正処理の終了後、制御部10は、この検出時間補正後の観測データを用いて、実施の形態1~3で説明したバイアス誤差補正処理を実行する。バイアス誤差補正処理において、算出部10aは、検出時間補正後の観測データを用いて指標値を算出する。
 なお、相関係数rの算出および遅延時間の推定は、制御部10ではなく、障害物認識装置内部に設けた推定部が行うこととしてもよい。
 以上の説明では、実施の形態1~3(障害物認識装置1)で説明した処理に追加する処理として、第1センサ100および第2センサ200の時系列の観測データを用いて、検出時刻の補正処理を行う場合について説明した。以上説明した検出時刻の補正処理は、実施の形態4~6(障害物認識装置2)で説明した処理に追加することも可能である。
 障害物認識装置2において、第1センサ100または第2センサ200の少なくとも何れか一方の遅延時間が既知である場合には、算出部10aは、既知の遅延時間を第1センサ100または第2センサ200の検出データに加算することで、検出時刻の補正処理を行う。
 また、障害物認識装置2において、第1センサ100または第2センサ200の観測データと、予測データを用いて検出時間の補正を行う場合には、以上の図17Aおよび図17Bを用いた説明において、第2センサ200の時系列の観測データを、時系列の予測データに置き換える構成とすればよい。そして、検出時間補正処理の終了後、制御部10は、この検出時間補正後の観測データを用いて、実施の形態4~6で説明したバイアス誤差補正処理を実行する。バイアス誤差補正処理において、算出部10aは、検出時間補正後の観測データを用いて指標値を算出する。
 以上説明したように、本実施の形態7に係る障害物認識装置によれば、センサの遅延時間に起因する物体検出時刻のずれを防止した状態で、バイアス誤差補正処理を実行することが可能となる。
 1、2 障害物認識装置、10 制御部、11 時刻計測部、12 データ受信部、13 相関処理部、14 更新処理部、100 第1センサ、200 第2センサ、300 車両情報センサ、500 表示部。

Claims (15)

  1.  車両の周辺の物体を検知する第1センサおよび第2センサと、
     前記第1センサで検出された第1物体に関する第1検出データと、前記第2センサで検出された第2物体に関する第2検出データとに基づいて、前記第1物体と前記第2物体とが同一物体であるか否かを識別するための指標値を算出する算出部と、
     前記指標値と予め設定された閾値とを比較することで、前記第1物体と前記第2物体とが同一物体であるか否かを判定する判定部と、
     前記判定部により前記第1物体と前記第2物体とが同一物体であると判定された場合に、前記第1検出データと前記第2検出データとに基づいて前記第1センサと前記第2センサとの検出誤差を算出し、前記検出誤差をなくすように補正後の検出データを生成する補正部と、
     を備える障害物認識装置。
  2.  前記第1センサは、前記第1検出データとして、前記第1物体の位置、速度および加速度の少なくともいずれか1つの物理量を検出し、
     前記第2センサは、前記第2検出データとして、前記第2物体の位置、速度および加速度の少なくともいずれか1つの物理量であり、前記第1センサと同一の物理量を検出し、
     前記算出部は、前記第1検出データと前記第2検出データとの差分を前記指標値として算出する
     請求項1に記載の障害物認識装置。
  3.  前記第1センサは、前記第1検出データとして、前記第1物体の位置を検出し、
     前記第2センサは、前記第2検出データとして、前記第2物体の位置を検出し、
     前記算出部は、前記第1検出データの時系列データから算出した前記第1物体の移動軌跡と、前記第2検出データの時系列データから算出した前記第2物体の移動軌跡との近似度を前記指標値として算出する
     請求項1に記載の障害物認識装置。
  4.  前記算出部は、前記第1物体の移動軌跡を第1多項式として近似し、前記第2物体の移動軌跡を第2多項式として近似し、前記第1多項式と前記第2多項式とで、対応する項の係数同士の差分の絶対値を前記近似度として算出する
     請求項3に記載の障害物認識装置。
  5.  前記第1センサは、前記第1検出データとして、前記第1物体の位置を検出し、
     前記第2センサは、前記第2検出データとして、前記第2物体の位置を検出し、
     前記算出部は、前記第1検出データの時系列データと、前記第2検出データの時系列データとの相関係数を前記指標値として算出する
     請求項1に記載の障害物認識装置。
  6.  前記第2センサが前記第2物体を検出してから前記第2検出データを出力するまでに必要とされる第2時間に対して、前記第1センサが前記第1物体を検出してから前記第1検出データを出力するまでに必要とされる第1時間が長い場合の時間差を遅延時間と規定した際に、前記遅延時間を既知のデータとして記憶する記憶部をさらに備え、
     前記算出部は、前記第1センサで検出された前記第1検出データを取得した時刻に対して前記遅延時間だけ遅れを持たせた時刻に前記第1検出データを受信したものとして遅延処理を実行し、前記遅延処理を実行した後の前記第1検出データと、前記遅延処理を実行しない前記第2検出データとに基づいて、前記指標値を算出する
     請求項1から5のいずれか1項に記載の障害物認識装置。
  7.  前記第2センサが前記第2物体を検出してから前記第2検出データを出力するまでに必要とされる第2時間に対して、前記第1センサが前記第1物体を検出してから前記第1検出データを出力するまでに必要とされる第1時間が長い場合の時間差を遅延時間と規定した際に、前記遅延時間が既知のデータでない場合に、前記第1検出データの時系列データと前記第2検出データの時系列データとに基づいて前記遅延時間を推定する推定部をさらに備え、
     前記算出部は、前記第1センサで検出された前記第1検出データを取得した時刻に対して前記遅延時間だけ遅れを持たせた時刻に前記第1検出データを受信したものとして遅延処理を実行し、前記遅延処理を実行した後の前記第1検出データと、前記遅延処理を実行しない前記第2検出データとに基づいて、前記指標値を算出する
     請求項1から5のいずれか1項に記載の障害物認識装置。
  8.  前記推定部は、前記第1検出データの時系列データを順次時間シフトさせ、前記第2検出データの時系列データとの相関係数を算出し、相関係数が最大となる時間シフト量を前記遅延時間として推定する
     請求項7に記載の障害物認識装置。
  9.  車両の周辺の物体を検知する第1センサと、
     前記第1センサにより過去に検出された検出データに基づいて、前記物体の動きを予測し、現在時刻における予測値を第3物体に関する第3検出データとして生成する予測部と、
     前記第1センサで検出された第1物体に関する第1検出データと、前記予測部により生成された第3物体に関する前記第3検出データとに基づいて、前記第1物体と前記第3物体とが同一物体であるか否かを識別するための指標値を算出する算出部と、
     前記指標値と予め設定された閾値とを比較することで、前記第1物体と前記第3物体とが同一物体であるか否かを判定する判定部と、
     前記判定部により前記第1物体と前記第3物体とが同一物体であると判定された場合に、前記第1検出データと前記第3検出データとに基づいて前記第1センサによる検出結果と前記予測部による生成結果とのバイアス誤差を算出し、前記バイアス誤差をなくすように補正後の検出データを生成する補正部と、
     を備える障害物認識装置。
  10.  前記第1センサは、前記第1検出データとして、前記第1物体の位置、速度および加速度の少なくともいずれか1つの物理量を検出し、
     前記予測部は、前記第3検出データとして、前記第3物体の位置、速度および加速度の少なくともいずれか1つの物理量であり、前記第1センサと同一の物理量を予測し、
     前記算出部は、前記第1検出データと前記第3検出データとの差分を前記指標値として算出する
     請求項9に記載の障害物認識装置。
  11.  前記第1センサは、前記第1検出データとして、前記第1物体の位置を検出し、
     前記予測部は、前記第3検出データとして、前記第3物体の位置を検出し、
     前記算出部は、前記第1検出データの時系列データから算出した前記第1物体の移動軌跡と、前記第3検出データの時系列データから算出した前記第3物体の移動軌跡との近似度を前記指標値として算出する
     請求項9に記載の障害物認識装置。
  12.  前記算出部は、前記第1物体の移動軌跡を第1多項式として近似し、前記第3物体の移動軌跡を第3多項式として近似し、前記第1多項式と前記第3多項式とで、対応する項の係数同士の差分の絶対値を前記近似度として算出する
     請求項11に記載の障害物認識装置。
  13.  前記第1センサは、前記第1検出データとして、前記第1物体の位置を検出し、
     前記予測部は、前記第3検出データとして、前記第3物体の位置を予測し、
     前記算出部は、前記第1検出データの時系列データと、前記第3検出データの時系列データとの相関係数を前記指標値として算出する
     請求項9に記載の障害物認識装置。
  14.  請求項1に記載の障害物認識装置において、前記算出部、前記判定部および前記補正部の機能を実現するコントローラーにより実行される障害物認識方法であって、
     前記第1センサで検出された前記第1物体に関する前記第1検出データと、前記第2センサで検出された前記第2物体に関する前記第2検出データとに基づいて、前記第1物体と前記第2物体とが同一物体であるか否かを識別するための前記指標値を算出する算出ステップと、
     前記指標値と予め設定された閾値とを比較することで、前記第1物体と前記第2物体とが同一物体であるか否かを判定する判定ステップと、
     前記判定ステップにより前記第1物体と前記第2物体とが同一物体であると判定された場合に、前記第1検出データと前記第2検出データとに基づいて前記第1センサと前記第2センサとの前記検出誤差を算出し、前記検出誤差をなくすように補正後の検出データを生成する補正ステップと、
     を有する障害物認識方法。
  15.  請求項9に記載の障害物認識装置において、前記予測部、前記算出部、前記判定部および前記補正部の機能を実現するコントローラーにより実行される障害物認識方法であって、
     前記第1センサにより過去に検出された検出データに基づいて、前記物体の動きを予測し、現在時刻における予測値を前記第3物体に関する前記第3検出データとして生成する予測ステップと、
     前記第1センサで検出された前記第1物体に関する前記第1検出データと、前記予測ステップにより生成された前記第3物体に関する前記第3検出データとに基づいて、前記第1物体と前記第3物体とが同一物体であるか否かを識別するための前記指標値を算出する算出ステップと、
     前記指標値と予め設定された閾値とを比較することで、前記第1物体と前記第3物体とが同一物体であるか否かを判定する判定ステップと、
     前記判定ステップにより前記第1物体と前記第3物体とが同一物体であると判定された場合に、前記第1検出データと前記第3検出データとに基づいて前記第1センサによる検出結果と前記予測ステップによる生成結果との前記バイアス誤差を算出し、前記バイアス誤差をなくすように補正後の検出データを生成する補正ステップと、
     を有する障害物認識方法。
PCT/JP2017/041720 2017-11-20 2017-11-20 障害物認識装置および障害物認識方法 WO2019097731A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US16/753,631 US11465643B2 (en) 2017-11-20 2017-11-20 Obstacle recognition device and obstacle recognition method
JP2019553679A JP6818907B2 (ja) 2017-11-20 2017-11-20 障害物認識装置および障害物認識方法
PCT/JP2017/041720 WO2019097731A1 (ja) 2017-11-20 2017-11-20 障害物認識装置および障害物認識方法
CN201780096758.1A CN111417869A (zh) 2017-11-20 2017-11-20 障碍物识别装置及障碍物识别方法
DE112017008157.2T DE112017008157T5 (de) 2017-11-20 2017-11-20 Hinderniserkennungsvorrichtung und Hinderniserkennungsverfahren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/041720 WO2019097731A1 (ja) 2017-11-20 2017-11-20 障害物認識装置および障害物認識方法

Publications (1)

Publication Number Publication Date
WO2019097731A1 true WO2019097731A1 (ja) 2019-05-23

Family

ID=66538596

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/041720 WO2019097731A1 (ja) 2017-11-20 2017-11-20 障害物認識装置および障害物認識方法

Country Status (5)

Country Link
US (1) US11465643B2 (ja)
JP (1) JP6818907B2 (ja)
CN (1) CN111417869A (ja)
DE (1) DE112017008157T5 (ja)
WO (1) WO2019097731A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020129369A1 (ja) * 2018-12-17 2020-06-25 ソニーセミコンダクタソリューションズ株式会社 キャリブレーション装置とキャリブレーション方法とプログラムおよびキャリブレーションシステムとキャリブレーションターゲット
JPWO2021024712A1 (ja) * 2019-08-02 2021-02-11
JP2021160662A (ja) * 2020-04-02 2021-10-11 三菱電機株式会社 物体認識装置および物体認識方法
WO2022190703A1 (ja) * 2021-03-11 2022-09-15 株式会社デンソー トラッキング装置、トラッキング方法、トラッキングプログラム
JP2022543017A (ja) * 2019-07-29 2022-10-07 トラックマン・アクティーゼルスカブ センサ間キャリブレーションのためのシステム及び方法
US11619708B2 (en) 2020-07-28 2023-04-04 Trackman A/S System and method for inter-sensor calibration
WO2024121995A1 (ja) * 2022-12-07 2024-06-13 日立Astemo株式会社 車両制御装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11891086B2 (en) * 2019-05-13 2024-02-06 Hitachi Astemo, Ltd. Vehicle control system
US11656328B2 (en) * 2020-06-02 2023-05-23 Blue White Robotics Ltd Validating object detection hardware and algorithms
CN112733907A (zh) * 2020-12-31 2021-04-30 上海商汤临港智能科技有限公司 数据融合方法、装置、电子设备以及存储介质
DE102021201512A1 (de) 2021-02-17 2022-08-18 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Modellierung der Umgebung eines automatisierten Fahrzeugs
CN113296088A (zh) * 2021-05-11 2021-08-24 雄狮汽车科技(南京)有限公司 车辆的动态目标跟踪方法、装置、及车辆
CN117235545B (zh) * 2023-11-14 2024-02-02 亿海蓝(北京)数据技术股份公司 判断空间对象分布相似性的方法、装置和可读存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004037239A (ja) * 2002-07-03 2004-02-05 Fuji Heavy Ind Ltd 同一対象物判断方法および装置、並びに、位置ずれ補正方法および装置
JP2006292621A (ja) * 2005-04-13 2006-10-26 Toyota Motor Corp 物体検出装置
US20080300787A1 (en) * 2006-02-03 2008-12-04 Gm Global Technology Operations, Inc. Method and apparatus for on-vehicle calibration and orientation of object-tracking systems
JP2010061567A (ja) * 2008-09-05 2010-03-18 Toyota Motor Corp 物体検出装置
JP2010249613A (ja) * 2009-04-14 2010-11-04 Toyota Motor Corp 障害物認識装置及び車両制御装置
JP2011064484A (ja) * 2009-09-15 2011-03-31 Mitsubishi Electric Corp センサバイアス推定装置
JP2013145205A (ja) * 2012-01-16 2013-07-25 Toyota Motor Corp 物体検出装置
JP2014025925A (ja) * 2012-07-24 2014-02-06 Toyota Motor Engineering & Manufacturing North America Inc 車両用コントローラ、車両システム
US20140142800A1 (en) * 2012-11-16 2014-05-22 GM Global Technology Operations LLC Method and apparatus for state of health estimation of object sensing fusion system
JP2017009574A (ja) * 2015-06-24 2017-01-12 パナソニック株式会社 レーダ軸ずれ量算出装置およびレーダ軸ずれ量算出方法
JP2017139600A (ja) * 2016-02-03 2017-08-10 クラリオン株式会社 カメラキャリブレーション装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015005001A1 (ja) * 2013-07-08 2015-01-15 本田技研工業株式会社 物体認識装置
JP6084192B2 (ja) * 2014-10-15 2017-02-22 本田技研工業株式会社 物体認識装置
US10578713B2 (en) 2015-06-24 2020-03-03 Panasonic Corporation Radar axis displacement amount calculation device and radar axis displacement calculation method

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004037239A (ja) * 2002-07-03 2004-02-05 Fuji Heavy Ind Ltd 同一対象物判断方法および装置、並びに、位置ずれ補正方法および装置
JP2006292621A (ja) * 2005-04-13 2006-10-26 Toyota Motor Corp 物体検出装置
US20080300787A1 (en) * 2006-02-03 2008-12-04 Gm Global Technology Operations, Inc. Method and apparatus for on-vehicle calibration and orientation of object-tracking systems
JP2010061567A (ja) * 2008-09-05 2010-03-18 Toyota Motor Corp 物体検出装置
JP2010249613A (ja) * 2009-04-14 2010-11-04 Toyota Motor Corp 障害物認識装置及び車両制御装置
JP2011064484A (ja) * 2009-09-15 2011-03-31 Mitsubishi Electric Corp センサバイアス推定装置
JP2013145205A (ja) * 2012-01-16 2013-07-25 Toyota Motor Corp 物体検出装置
JP2014025925A (ja) * 2012-07-24 2014-02-06 Toyota Motor Engineering & Manufacturing North America Inc 車両用コントローラ、車両システム
US20140142800A1 (en) * 2012-11-16 2014-05-22 GM Global Technology Operations LLC Method and apparatus for state of health estimation of object sensing fusion system
JP2017009574A (ja) * 2015-06-24 2017-01-12 パナソニック株式会社 レーダ軸ずれ量算出装置およびレーダ軸ずれ量算出方法
JP2017139600A (ja) * 2016-02-03 2017-08-10 クラリオン株式会社 カメラキャリブレーション装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020129369A1 (ja) * 2018-12-17 2020-06-25 ソニーセミコンダクタソリューションズ株式会社 キャリブレーション装置とキャリブレーション方法とプログラムおよびキャリブレーションシステムとキャリブレーションターゲット
JP2022543017A (ja) * 2019-07-29 2022-10-07 トラックマン・アクティーゼルスカブ センサ間キャリブレーションのためのシステム及び方法
JP7336586B2 (ja) 2019-07-29 2023-08-31 トラックマン・アクティーゼルスカブ センサ間キャリブレーションのためのシステム及び方法
JPWO2021024712A1 (ja) * 2019-08-02 2021-02-11
WO2021024712A1 (ja) * 2019-08-02 2021-02-11 日立オートモティブシステムズ株式会社 エイミング装置、運転制御システム、及びセンサデータの補正量の計算方法
JP7162142B2 (ja) 2019-08-02 2022-10-27 日立Astemo株式会社 エイミング装置、運転制御システム、及びセンサデータの補正量の計算方法
JP2021160662A (ja) * 2020-04-02 2021-10-11 三菱電機株式会社 物体認識装置および物体認識方法
JP7412254B2 (ja) 2020-04-02 2024-01-12 三菱電機株式会社 物体認識装置および物体認識方法
US11619708B2 (en) 2020-07-28 2023-04-04 Trackman A/S System and method for inter-sensor calibration
WO2022190703A1 (ja) * 2021-03-11 2022-09-15 株式会社デンソー トラッキング装置、トラッキング方法、トラッキングプログラム
WO2024121995A1 (ja) * 2022-12-07 2024-06-13 日立Astemo株式会社 車両制御装置

Also Published As

Publication number Publication date
DE112017008157T5 (de) 2020-09-10
JP6818907B2 (ja) 2021-01-27
JPWO2019097731A1 (ja) 2020-04-02
US11465643B2 (en) 2022-10-11
US20200276983A1 (en) 2020-09-03
CN111417869A (zh) 2020-07-14

Similar Documents

Publication Publication Date Title
WO2019097731A1 (ja) 障害物認識装置および障害物認識方法
JP5835490B2 (ja) 衝突予測装置
US20170372149A1 (en) Object recognition device, object recognition method and self-driving system
JP5460148B2 (ja) 測位装置及びプログラム
US10737384B2 (en) Robot system
US20180224275A1 (en) Road surface shape measuring device, measuring method, and non-transitory computer-readable medium
US10793145B2 (en) Object recognition device, object recognition method, and vehicle control system
JP2018041194A (ja) 車両の運転支援装置
WO2016021606A1 (ja) 複数の物体検出手段を用いた物体認識装置
JP6776202B2 (ja) 車載カメラのキャリブレーション装置及び方法
KR20150067682A (ko) 검출 영역을 최적화하는 장애물 추적 장치 및 방법
WO2020013050A1 (ja) 車両制御装置、車両制御方法及び車両制御システム
US20190375418A1 (en) Estimating apparatus
US11577736B2 (en) Method and device for ascertaining a highly accurate estimated value of a yaw rate for controlling a vehicle
JP2020537800A (ja) 車両の車線変更検出のためのシステム及び方法
JP6169146B2 (ja) 物体認識統合装置および物体認識統合方法
JP2007044865A (ja) 方向付け/位置決めシステム制御方法
CN114026456A (zh) 追踪装置
JP7336223B2 (ja) 自己位置推定方法
JP2018179926A (ja) 物体認識処理装置、物体認識処理方法および車両制御システム
US20220080997A1 (en) Lane uncertainty modeling and tracking in a vehicle
JP5341296B2 (ja) レーダ装置
JP7412254B2 (ja) 物体認識装置および物体認識方法
JP2020063934A (ja) 物体認識装置およびこれを用いた車両制御装置並びに物体認識方法およびこれを用いた車両制御方法
JP6598885B2 (ja) 物体認識装置および物体認識方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17932557

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019553679

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 17932557

Country of ref document: EP

Kind code of ref document: A1