WO2017149813A1 - センサキャリブレーションシステム - Google Patents

センサキャリブレーションシステム Download PDF

Info

Publication number
WO2017149813A1
WO2017149813A1 PCT/JP2016/076224 JP2016076224W WO2017149813A1 WO 2017149813 A1 WO2017149813 A1 WO 2017149813A1 JP 2016076224 W JP2016076224 W JP 2016076224W WO 2017149813 A1 WO2017149813 A1 WO 2017149813A1
Authority
WO
WIPO (PCT)
Prior art keywords
landmark
vehicle
unit
relative position
sensor
Prior art date
Application number
PCT/JP2016/076224
Other languages
English (en)
French (fr)
Inventor
佑介 日永田
拓久哉 中
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to JP2018502510A priority Critical patent/JP6533619B2/ja
Priority to US15/779,676 priority patent/US10705184B2/en
Publication of WO2017149813A1 publication Critical patent/WO2017149813A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • G01S13/874Combination of several systems for attitude determination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9322Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93274Sensor installation details on the side of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9329Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles cooperating with reflectors or transponders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4052Means for monitoring or calibrating by simulation of echoes
    • G01S7/4082Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder
    • G01S7/4091Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder during normal radar operation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees

Definitions

  • the present invention relates to an inter-sensor calibration system for autonomous vehicles, for example.
  • mining work machines such as excavators and dump trucks are used for mining and transporting earth and sand.
  • Mining work machines used in mines are required to be unmanned from the viewpoint of safety and cost reduction.
  • dump trucks since the amount of earth and sand transported per unit time is directly linked to the progress of mining, efficient operation is required. Therefore, in order to efficiently transport a large amount of earth and sand outside the mining site, a mining system using an autonomously traveling dump truck capable of continuous operation is required.
  • an obstacle detection device such as a millimeter wave radar, a laser sensor, a camera, or a stereo camera
  • the millimeter wave radar has a high environmental resistance capable of operating even when dust or rain occurs, and has a high measurement distance performance.
  • a stereo camera or a laser sensor can measure a three-dimensional shape, an obstacle on the road can be detected with high accuracy.
  • Patent Document 1 discloses an obstacle recognition device that corrects the axial displacement between an in-vehicle camera and an in-vehicle radar caused by a secular change based on the position information of an obstacle detected by each sensor.
  • Sensor-to-sensor calibration for sensors that do not overlap or partially overlap such measurement areas is a highly accurate and large-scale calibration that can be measured within the measurement areas of all sensors in the factory during production, for example.
  • the present invention has been made in view of the above problems, and in the case of performing obstacle detection by combining a plurality of sensors, the relative position between the sensors is detected, the parameters between the sensors are corrected, and an accurate obstacle is obtained.
  • the purpose is to provide detection.
  • a calibration system for obtaining a relative position and orientation between a vehicle and an attachment position of a first measuring means attached to the vehicle, 3D shape information on the vehicle, the first landmark, and the environment around the first landmark is acquired 3
  • a three-dimensional shape information acquisition unit 101 a vehicle sensor landmark position detection unit 104 that estimates the position of the first landmark from the three-dimensional shape information, and a position at which the first measurement unit is attached to the vehicle from the three-dimensional shape information.
  • Vehicle sensor position detection unit 103 for determining vehicle position, vehicle position detection unit 102 for estimating the position of the vehicle from three-dimensional shape information, and vehicle landmark relative position for determining the relative position of the vehicle position and the installation position of the first measuring means
  • An estimation unit 105 a first landmark detection unit 106 that detects the position of the first landmark from the three-dimensional shape information, and a first landmark
  • a landmark associating unit 107 for obtaining a correspondence relationship between the position of the first landmark detected by the detecting unit 106 and the mounting position of the first landmark estimated by the vehicle landmark relative position estimating unit 105 to the vehicle;
  • a calibration system comprising: a vehicle sensor relative posture estimation unit that estimates a relative position and posture between the vehicle and the first measurement unit based on information of the mark relative position estimation unit 105 and the landmark association unit 107.
  • This embodiment is an embodiment for obtaining the relative position and orientation of the sensor vehicle position and the sensor position attached to the vehicle.
  • FIG. 1 is a diagram showing an example of a scene using this embodiment.
  • a relative position and orientation between the vehicle 3 and the mounting position of the first measuring means 31 mounted on the vehicle 3 is obtained.
  • the first measuring means 31 uses an external sensor capable of detecting the position of an arbitrary obstacle such as a millimeter wave radar, a Lidar, a camera, a stereo camera, or a TOF sensor.
  • the first landmark 4 is installed in the measurement range 311 of the first measurement means.
  • FIG. 1 is a diagram showing this situation in a bird's-eye view is shown in FIG.
  • the first landmark 4 can be easily measured by the first measuring means 31.
  • the three-dimensional shape of the environment including the vehicle 3 and the surrounding first landmark 4 (the environment around the vehicle 3, the first landmark 4, and the first landmark 4) is measured.
  • the three-dimensional point group information and the three-dimensional surface information are referred to as three-dimensional shape information.
  • a method for measuring the three-dimensional shape for example, a method of attaching an external sensor 2 such as a camera or a lidar to the unmanned aircraft 1 as shown in FIG. 1 can be considered, but the three-dimensional shape of the environment can be acquired. If so, this configuration is not limited.
  • FIG. 3 shows an outline of this embodiment.
  • the three-dimensional shape information for example, the camera, LIDAR, millimeter wave radar, ultrasonic sensor and similar environment shape or environment brightness, color information, temperature information is acquired on an unmanned aircraft, manned aircraft, artificial satellite, or other aircraft.
  • this configuration is not limited as long as three-dimensional shape information can be acquired.
  • FIG. 4 shows a configuration of a three-dimensional shape acquisition method in which a monocular camera is attached as an external sensor 2 to an unmanned aircraft 1.
  • the monocular camera can be an infrared camera or a far infrared camera in addition to a camera capable of measuring visible light.
  • a monocular camera is attached to the unmanned aerial vehicle 1 to fly over the location where the environmental map is to be created. At this time, continuous shooting is performed with a monocular camera. At this time, it is desirable to shoot so that the captured image overlaps with the other captured images about 80% before and after, and about 60% lateral.
  • the captured image group is stored in the sensor data storage unit 11.
  • SfM Structure from Motion
  • MVS Multi View Stereo
  • the surface generation unit 13 meshes it to generate three-dimensional surface information having texture information and surface normal vector information.
  • the three-dimensional shape information is stored in the three-dimensional shape information storage unit 14. Since these techniques are known techniques, they are omitted here.
  • a vehicle position detection unit is obtained by using the three-dimensional shape information including the vehicle 3, the first measurement unit 31, the first landmark 4, and the surrounding environment information obtained by using the three-dimensional shape information acquisition unit 101.
  • Reference numeral 102 denotes a vehicle position of the vehicle 3.
  • shape information or image information of the front, rear, left and right wheels of the vehicle is registered in advance, and template matching processing, SIFT feature, SURF feature, etc. are represented from the measured three-dimensional shape information.
  • the corresponding location is searched by matching the image local feature points, and the vehicle position of the vehicle 3 is specified.
  • a marker having a characteristic color or shape with respect to the vehicle may be attached to the vehicle so as to facilitate the search.
  • the vehicle sensor position detection unit 103 detects the installation position (attachment position to the vehicle 3) of the first measurement unit 31 from the 3D shape information acquired by the 3D shape information acquisition unit 101.
  • shape information or image information of the first measuring unit 31 is registered in advance, and template matching processing, SIFT feature, SURF feature, or the like is measured from the measured three-dimensional shape information.
  • template matching processing, SIFT feature, SURF feature, or the like is measured from the measured three-dimensional shape information.
  • a marker having a characteristic color or shape may be attached to the landmark so as to facilitate the search.
  • the vehicle sensor landmark detection unit 104 detects the position of the first landmark 4 for the vehicle sensor from the three-dimensional shape information acquired by the three-dimensional shape information acquisition unit 101.
  • shape information or image information of the first landmark 4 is registered in advance, and template matching processing, SIFT feature, SURF feature, or the like is measured from the measured three-dimensional shape information.
  • Corresponding locations are searched by matching local image feature points, and the position of the first landmark 4 is specified.
  • a marker having a characteristic color or shape may be attached to the landmark so as to facilitate the search.
  • the vehicle landmark relative position estimation unit 105 determines the vehicle position of the vehicle 3 and The relative position of the installation position of the first measuring means 31 is obtained.
  • the three-dimensional shape information acquiring unit 101 includes the vehicle 3 and the first landmark 4 and the surrounding environment as the three-dimensional shape information, and the position of each target is determined from the information.
  • the relative position is self explanatory.
  • the position of the first landmark 4 in the measurement area is detected by the first landmark detection unit 106 from the information measured by the first measuring means 31.
  • shape information or image information of the first landmark 4 is registered in advance, and template matching processing, SIFT feature, SURF feature, or the like is measured from the measured three-dimensional shape information.
  • Corresponding locations are searched by matching local image feature points, and the position of the first landmark 4 is specified.
  • a marker having a characteristic color or shape may be attached to the landmark so as to facilitate the search.
  • the first measurement unit 31 corresponds to a millimeter wave sensor, a Lidar, or the like
  • the material of the landmark a material having a high reflection intensity for the first measurement unit 31
  • the reflection intensity of the first landmark 4 can be increased.
  • the landmark position information detected by the first landmark detection unit 106 in the landmark association unit 107 is compared with the landmark position estimated by the vehicle landmark relative position estimation unit 105. Then, the relative position of the first landmark 4 estimated by the vehicle landmark relative position estimation unit 105 is within a predetermined threshold with respect to the relative position of the first landmark 4 estimated by the first landmark detection unit 106. If it is, it is determined that the same detection result has detected the same landmark.
  • the vehicle sensor relative posture estimation unit 108 based on the information of the vehicle landmark relative position estimation unit 105 and the landmark association unit 107, the relative posture of the vehicle sensor (the relative position and posture of the vehicle 3 and the first measuring means 31). Is estimated.
  • FIG. 5 is a diagram illustrating the operation of the vehicle sensor relative posture estimation unit 108.
  • a top view of the position of the first landmark 4 based on the first measuring means 31 detected by the vehicle landmark relative position estimating unit 105 is a top right view, and is detected by the first landmark detecting unit 106.
  • the top left view is a bird's-eye view of landmark relative position information. This is represented by a coordinate system centered on the installation position of the first measuring means 31, and the superimposed diagram is the lower diagram of FIG.
  • the installation position of the first measurement means 31 is obtained based on how much the angle differs between the installation position of the first measurement means 31 and the position of the first landmark 4 detected and estimated. As described above, the relative position between the first measuring means 31 and the vehicle 3 can be obtained.
  • the position and shape of the landmark for calibration are accurately measured and the vehicle position is estimated by a three-dimensional shape information acquisition unit using UAV or the like. This makes it possible to accurately estimate and correct the position between the sensors and the position between the sensor vehicles under any environment. Thereby, it becomes possible to operate the obstacle detection system using the sensor soundly.
  • the installation position / posture of the vehicle sensor specified in advance or its differential position / posture There may be a sensor recommended installation position presentation unit to be presented to the user.
  • the present embodiment is an embodiment for the purpose of obtaining the relative positions of a plurality of sensors attached to a vehicle.
  • FIG. 6 shows an example in which the first measuring means 31 and the second measuring means 32 are attached. The relative position and orientation of the first measuring means 31 and the second measuring means 32 attached to the vehicle 3 are obtained.
  • the first measurement unit and the second measurement unit use an external sensor capable of detecting the position of an arbitrary obstacle such as a millimeter wave radar, a Lidar, a camera, a stereo camera, or a TOF sensor.
  • the first measuring means 31 and the second measuring means 32 may be different types of external sensors.
  • the first landmark 4 is installed in the measurement range 311 of the first measurement means, and the second landmark 5 is installed in the measurement range 321 of the second measurement means.
  • FIG. 6 shows this situation in a bird's-eye view. At this time, it is desirable that the first landmark 4 can be easily measured by the first measuring means 31, and the second landmark 5 is desirably easily measurable by the second measuring means 32. . These landmarks can be substituted if there are surrounding terrain shapes, trees and installations.
  • Figure 7 shows an overview of this example.
  • a second measuring unit 32, a second landmark detection unit 109, and a vehicle sensor relative position / posture estimation unit 110 are added to the first embodiment.
  • the second measurement unit 32 and the second landmark detection unit 109 operate in substantially the same manner as the first measurement unit 31 and the first landmark detection unit 106 described in the first embodiment.
  • the vehicle sensor relative position / orientation estimation unit 110 uses the first measurement means 31 and the relative position / orientation of the vehicle 3 estimated by the vehicle sensor relative attitude / estimation unit 108, and the second measurement means 32 and the relative position / orientation of the vehicle 3 based on the geometric position. Then, the relative position and orientation of the first measuring means 31 and the second measuring means 32 are obtained.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

複数のセンサを組み合わせて障害物検出を行う場合において、センサ間の相対位置を検知、センサ間のパラメータを補正し、正確な障害物検出を提供する。3次元形状情報から、第1ランドマークの位置を検出する第1ランドマーク検出部と、第1ランドマーク検出部が検出した第1ランドマークの位置と車両ランドマーク相対位置推定部が推定した第1ランドマークの車両への取付け位置との対応関係を求めるランドマーク対応付け部と、車両ランドマーク相対位置推定部とランドマーク対応付け部との情報に基づき車両と第1計測手段との相対位置姿勢を推定する車両センサ相対姿勢推定部と、を有するキャリブレーションシステム。

Description

センサキャリブレーションシステム
 本発明は、例えば自律走行車両向けのセンサ間キャリブレーションシステムに関するものである。
 一般に鉱山においては、土砂の採掘作業および運搬作業として油圧ショベルやダンプトラックなどの鉱山用作業機械が用いられている。鉱山に用いられる鉱山用作業機械としては、安全性や低コスト化の観点から無人化が求められる。ダンプトラックにおいては、単位時間当たりの土砂の運搬量が採掘の進捗度に直結するため、効率の良い運用が求められる。したがって、土砂を効率良く採掘現場の外に大量に運搬するためには、連続運転可能な自律走行式のダンプトラックを用いた鉱山システムが必要とされている。
 ところが、ダンプトラックを走行させる鉱山の走行路はオフロードであって悪路が多いため、ダンプトラックを自律走行させて無人運転させる際、土壁や他車両等の障害物との衝突が懸念される。仮に、走行路上に障害物が生じ、自律走行式の無人のダンプトラックが障害物と接触して停止した場合には、鉱山の運行を長時間に亘って停止させてしまう。よって、自律走行式のダンプトラックの信頼性を高めるためには、前方車両や走行路上の障害物を早期に検知して、前方車両の追従走行や障害物の回避走行を行わせることが可能な信頼性の高い障害物検知システムが必要となる。
 従来、この種の前方車両および障害物検知システムとしては、ミリ波レーダ、レーザセンサ、カメラまたはステレオカメラ等の障害物検知装置が用いられている。ミリ波レーダは砂埃や雨などが生じた場合も動作可能な高い耐環境性を有し、測定距離性能も高い。一方で、ステレオカメラやレーザセンサは、三次元形状を計測できるため、路上の障害物を精度よく検出することができる。またこれらのセンサを組み合わせることで、障害物の検出性能を向上させる方法もある。
  種類の異なる複数のセンサを用いるには各センサの相対位置を正確に把握する必要がある。特に鉱山ダンプに取り付ける場合は車体が大きいため、取り付け時のキャリブレーションの他、経年変化による位置ずれを考慮する必要がある。例えば特許文献1には経年変化により生じた車載カメラと車載レーダの軸ずれをそれぞれのセンサが検出した障害物の位置情報に基づき補正する障害物認識装置が公開されている。
特開2010-249613号公報
 しかしながら、この手法はセンサの計測領域の大半が重畳していることが前提のため、例えば車両前方に向けて取り付けたセンサと後方に向けて取り付けたセンサではキャリブレーションを行うことが難しい。
 こういった計測領域が重畳していない、あるいは一部分のみ重畳しているセンサのセンサ間キャリブレーションは、例えば生産時に工場内ですべてのセンサの計測領域内で計測可能な高精度かつ大型のキャリブレーション用のランドマークを設置するか、もしくは複数個の幾何学的な位置関係が高精度に判明しているキャリブレーション用のランドマークを設置し、センサの計測結果からセンサの設置位置及び角度を求めることでセンサ間キャリブレーションを行うことが多い。
 しかしながら、例えば鉱山ダンプトラックのような大型車両は現地で組み立てることが大半であり、またその作業は地面が十分に整地されていないオフロードの屋外で行われることも多く、高精度にキャリブレーション用のランドマークを設置することが困難であり、またそういった環境下ではキャリブレーション用ランドマークの相対位置は人手で計測するため、計測者の技量に依存してしまい、結果として十分な精度でセンサ間のキャリブレーションを行うことが難しかった。
 本発明は、以上の課題に鑑みてなされたものであり、複数のセンサを組み合わせて障害物検出を行う場合において、センサ間の相対位置を検知、センサ間のパラメータを補正し、正確な障害物検出を提供することを目的とする。
 上記課題を解決するための本発明の特徴は、例えば以下の通りである。
 車両と車両に取付けられた第1計測手段の取付け位置との相対位置姿勢を求めるキャリブレーションシステムにおいて、車両、第1ランドマーク、および第1ランドマーク周辺の環境の3次元形状情報を取得する3次元形状情報取得手段101と、3次元形状情報から、第1ランドマークの位置を推定する車両センサ用ランドマーク位置検出部104と、3次元形状情報から、第1計測手段の車両への取付け位置を求める車両センサ位置検出部103と、3次元形状情報から、車両の位置を推定する車両位置検出部102と、車両の位置及び第1計測手段の設置位置の相対位置を求める車両ランドマーク相対位置推定部105と、3次元形状情報から、第1ランドマークの位置を検出する第1ランドマーク検出部106と、第1ランドマーク検出部106が検出した第1ランドマークの位置と車両ランドマーク相対位置推定部105が推定した第1ランドマークの車両への取付け位置との対応関係を求めるランドマーク対応付け部107と、車両ランドマーク相対位置推定部105とランドマーク対応付け部107との情報に基づき車両と第1計測手段との相対位置姿勢を推定する車両センサ相対姿勢推定部108と、を有するキャリブレーションシステム。
 本発明により、複数のセンサを組み合わせて障害物検出を行う場合において、センサ間の相対位置を検知、センサ間のパラメータを補正し、正確な障害物検出を提供できる。上記した以外の課題、構成及び効果は以下の実施形態の説明により明らかにされる。
本発明の一実施形態の例を示した図である。 本発明の一実施形態を適用する状況を俯瞰で示した図である。 本発明の一実施形態の構成を示した図である。 3次元情報計測部について原理の一例を示した図である。 車両センサ相対姿勢推定部の動作について説明した図である。 本発明の一実施形態の適用する状況を俯瞰で示した図である。 本発明の一実施形態の構成を示した図である。
 以下、図面等を用いて、本発明の実施形態について説明する。以下の説明は本発明の内容の具体例を示すものであり、本発明がこれらの説明に限定されるものではなく、本明細書に開示される技術的思想の範囲内において当業者による様々な変更および修正が可能である。また、本発明を説明するための全図において、同一の機能を有するものは、同一の符号を付け、その繰り返しの説明は省略する場合がある。
 本実施例では、車両に取り付けたセンサ位置と車両位置のセンサ車両位置の相対位置姿勢を求めるための実施形態である。
 図1は、本実施例を利用するシーンの一例について示した図である。車両3と車両3に取付けられた第1計測手段31の取付け位置との相対位置姿勢を求める。このとき、第1計測手段31はミリ波レーダ、Lidar、カメラ、ステレオカメラ、TOFセンサなど任意の障害物の位置を検出することが可能な外界センサを用いることが想定される。本実施例では、第1ランドマーク4を第1計測手段の計測範囲311に設置する。この状況を俯瞰で示した図を図2に示す。
 このとき、第1ランドマーク4は第1計測手段31が容易に計測できるものとするのが望ましい。続いて、本実施例では車両3とその周囲の第1ランドマーク4を含めた環境(車両3、第1ランドマーク4、および第1ランドマーク4周辺の環境)の3次元形状を計測することによって、車両センサ間のキャリブレーションを実現する。3次元点群情報、及び3次元サーフェイス情報のことをここでは3次元形状情報と呼ぶこととする。このとき、3次元形状を計測する方法としては、例えば、図1に示すような無人航空機1にカメラやLidarなどの外界センサ2を取り付ける方法などが考えられるが、環境の3次元形状が取得可能であれば、この構成は限定されない。
 続いて、図3に本実施例の概要について示す。本実施例では、まず、車両3と第1計測手段31の相対位置を求めるために、3次元形状情報取得手段101によって車両3と第1計測手段31及び第1ランドマーク4を含めた環境の3次元形状の形状を計測する。このとき3次元形状情報は例えば無人航空機、及び有人航空機、人工衛星などの機体にカメラ、LIDAR、ミリ波レーダ、超音波センサ及びそれに類する環境の形状もしくは環境の輝度、色情報、温度情報を取得することが可能なセンサを取り付け、計測し、取得したものとするが、3次元形状情報が取得可能であればこの構成は限定されない。
 一例として、図4に無人航空機1に外界センサ2として単眼カメラを取り付けたものによる3次元形状取得方法の構成を示す。なお、このとき単眼カメラは可視光を計測可能なカメラの他に赤外線カメラ、もしくは遠赤外線カメラでも可能である。
 この構成ではまず、無人航空機1に単眼カメラを取り付け、環境地図を作成したい箇所の上空を飛行させる。この際に、単眼カメラで連続撮影を行う。このとき、撮影した画像の前後が80%前後、横が60%前後他の撮影した画像と重なるよう撮影するのが望ましいとされている。この撮影した画像群をセンサデータ蓄積部11に蓄える。この画像群を用いて、3次元点群生成部12でStructure from Motion(SfM)及びMulti View Stereo(MVS)を用いることで、環境の3次元点群情報を得ることができる。この3次元点群情報を元に、サーフェイス生成部13ではこれをメッシュ化し、テクスチャ情報とサーフェイスの法線ベクトル情報を有した3次元サーフェイス情報を生成する。この3次元形状情報を3次元形状情報格納部14に保存する。なおこれらの技術に関しては、公知の技術のため、ここでは割愛する。
 続いて、3次元形状情報取得手段101を用いて得られた車両3と第1計測手段31及び第1ランドマーク4と周囲の環境情報を有した3次元形状情報を用いて、車両位置検出部102は車両3の車両位置を検出する。車両3の車両位置を検出する方法としては例えば、車両の前後左右の車輪の形状情報もしくは画像情報を事前に登録し、計測した3次元形状情報からテンプレートマッチング処理やSIFT特徴やSURF特徴などに代表される画像局所特徴点のマッチングにより、対応箇所を探索し、車両3の車両位置を特定する。このとき、探索がしやすいように車両に色や形状が車両に対して特徴的なマーカを取り付けても良い。
 続いて、車両センサ位置検出部103は、3次元形状情報取得手段101が取得した3次元形状情報から、第1計測手段31の設置位置(車両3への取付け位置)を検出する。第1計測手段31の位置を検出する方法としては例えば、第1計測手段31の形状情報もしくは画像情報を事前に登録し、計測した3次元形状情報からテンプレートマッチング処理やSIFT特徴やSURF特徴などに代表される画像局所特徴点のマッチングにより、対応箇所を探索し、第1計測手段31の設置位置を特定する。このとき、探索がしやすいようにランドマークに色や形状が特徴的なマーカを取り付けても良い。
 続いて、車両センサ用ランドマーク検出部104は、3次元形状情報取得手段101が取得した3次元形状情報から、車両センサ用の第1ランドマーク4の位置を検出する。第1ランドマーク4の位置を検出する方法としては例えば、第1ランドマーク4の形状情報もしくは画像情報を事前に登録し、計測した3次元形状情報からテンプレートマッチング処理やSIFT特徴やSURF特徴などに代表される画像局所特徴点のマッチングにより、対応箇所を探索し、第1ランドマーク4の位置を特定する。このとき、探索がしやすいようにランドマークに色や形状が特徴的なマーカを取り付けても良い。
 車両位置検出部102及び車両センサ位置検出部103及び車両センサ用ランドマーク検出部104が検出した各ターゲットの位置情報を元に、車両ランドマーク相対位置推定部105では、車両3の車両位置及び、第1計測手段31の設置位置の相対位置を求める。このとき相対位置を求める方法としては3次元形状情報取得手段101によって、車両3及び第1ランドマーク4とその周辺の環境を3次元形状情報として有しており、その情報から各ターゲットの位置を求めているため、相対位置は自明である。
 続いて、第1計測手段31が計測した情報から、第1ランドマーク検出部106において計測領域内にある第1ランドマーク4の位置を検出する。第1ランドマーク4の位置を検出する方法としては例えば、第1ランドマーク4の形状情報もしくは画像情報を事前に登録し、計測した3次元形状情報からテンプレートマッチング処理やSIFT特徴やSURF特徴などに代表される画像局所特徴点のマッチングにより、対応箇所を探索し、第1ランドマーク4の位置を特定する。このとき、探索がしやすいようにランドマークに色や形状が特徴的なマーカを取り付けても良い。もしくは第1計測手段31がミリ波センサやLidarなどに該当する場合は例えば、ランドマークの素材を第1計測手段31にとって反射強度の高い素材にすることにより、第1ランドマーク4の反射強度を高くすることで、第1ランドマーク4を環境に対して特徴的にする方法がある。
 続いて、ランドマーク対応付け部107において第1ランドマーク検出部106が検出したランドマーク位置情報と車両ランドマーク相対位置推定部105が推定したランドマークの位置を比較する。そして、第1ランドマーク検出部106が推定した第1ランドマーク4の相対位置に対して、車両ランドマーク相対位置推定部105が推定した第1ランドマーク4の相対位置が事前に設定した閾値以内にあった場合、それぞれの検出結果が同じランドマークを検出していると判断する。
 車両センサ相対姿勢推定部108において、車両ランドマーク相対位置推定部105とランドマーク対応付け部107との情報に基づき、車両センサの相対姿勢(車両3と第1計測手段31との相対位置姿勢)を推定する。
 図5に、車両センサ相対姿勢推定部108の動作について解説した図を示す。車両ランドマーク相対位置推定部105が検出した第1計測手段31を基準とした第1ランドマーク4の位置を俯瞰的に表したものが右上図であり、第1ランドマーク検出部106が検出したランドマークの相対位置情報を俯瞰的に示したものが左上図である。こちらを第1計測手段31の設置位置を中心とした座標系で表し、重畳させたものが図5の下図である。第1計測手段31の設置位置と、それぞれが検出、推定した第1ランドマーク4の位置を結び、その角度がどの程度異なるかに基づいて第1計測手段31の設置姿勢を求める。
以上により、第1計測手段31と車両3の相対位置を求めることができる。つまり、本実施例に係るセンサキャリブレーションシステムにおいては、例えばUAVなどを用いた3次元形状情報取得手段により、キャリブレーション用のランドマークの位置及び形状を正確に測定し、かつ車両位置を推定することで、どの環境下においても高精度なセンサ間位置及びセンサ車両間の位置を高精度に推定、補正することができる。これにより、センサを用いた障害物検出システムを健全に動作させることが可能となる。
 なお、事前に指定された車両センサの設置位置に比べ、計測された車両センサと車体との設置位置が大きく異なっていた場合、事前に指定された車両センサの設置位置姿勢もしくはその差分位置姿勢をユーザーに提示するセンサ推奨設置位置提示部があってもよい。
 本実施例は、車両に取り付けた複数のセンサの相対位置を求めることを目的とした実施形態である。図6に第1計測手段31と第2計測手段32を取り付けた例を示す。車両3に取り付けた第1計測手段31と第2計測手段32の相対位置姿勢を求める。このとき、第1計測手段及び第2計測手段はミリ波レーダ、Lidar、カメラ、ステレオカメラ、TOFセンサなど任意の障害物の位置を検出することが可能な外界センサを用いることが想定される。
このとき第1計測手段31と第2計測手段32は異なる種類の外界センサでも問題ない。本実施例では、第1ランドマーク4を第1計測手段の計測範囲311に設置し、第2ランドマーク5を第2計測手段の計測範囲321に設置する。図6は、この状況を俯瞰で示している。このとき、第1ランドマーク4は第1計測手段31が容易に計測できるものとするのが望ましく、また、第2ランドマーク5は第2計測手段32が容易に計測できるものとするのが望ましい。また、これらのランドマークは周囲の地形形状や木々、設置物などがあれば、それらも代用することができる。
 図7に本実施例の概要について示す。本実施形態は第1実施形態に対して、第2計測手段32及び第2ランドマーク検出部109及び車両センサ相対位置姿勢推定部110を加えたものである。
 第2計測手段32及び第2ランドマーク検出部109においては第1実施形態において説明した第1計測手段31及び第1ランドマーク検出部106とほぼ同様に動作する。
 車両センサ相対位置姿勢推定部110は、車両センサ相対姿勢推定部108において推定した第1計測手段31と車両3の相対位置姿勢と第2計測手段32と車両3の相対位置姿勢から、幾何学的に第1計測手段31と第2計測手段32の相対位置姿勢を求める。
1 無人航空機、2 外界センサ、3 車両、4 第1ランドマーク、5 第2ランドマーク、11 センサデータ蓄積部、12 3次元点群生成部、13 サーフェイス生成部、14 3次元形状情報格納部、31 第1計測手段、32 第2計測手段、101 3次元形状情報取得手段、102 車両位置検出部、103 車両センサ位置検出部、104 車両センサ用ランドマーク検出部、105 車両ランドマーク相対位置推定部、106 第1ランドマーク検出部、107 ランドマーク対応付け部、108 車両センサ相対姿勢推定部、109 第2ランドマーク検出部、110 車両センサ相対位置姿勢推定部110、311 第1計測手段の計測範囲、321 第2計測手段の計測範囲

Claims (2)

  1.  車両と前記車両に取付けられた第1計測手段の取付け位置との相対位置姿勢を求めるキャリブレーションシステムにおいて、
     前記車両、第1ランドマーク、および前記第1ランドマーク周辺の環境の3次元形状情報を取得する3次元形状情報取得手段と、
     前記3次元形状情報から、前記第1ランドマークの位置を推定する車両センサ用ランドマーク位置検出部と、
     前記3次元形状情報から、前記第1計測手段の前記車両への取付け位置を求める車両センサ位置検出部と、
     前記3次元形状情報から、前記車両の位置を推定する車両位置検出部と、
     前記車両の位置及び前記第1計測手段の設置位置の相対位置を求める車両ランドマーク相対位置推定部と、
     前記3次元形状情報から、前記第1ランドマークの位置を検出する第1ランドマーク検出部と、
     前記第1ランドマーク検出部が検出した前記第1ランドマークの位置と前記車両ランドマーク相対位置推定部が推定した前記第1ランドマークの前記車両への取付け位置との対応関係を求めるランドマーク対応付け部と、
     前記車両ランドマーク相対位置推定部と前記ランドマーク対応付け部との情報に基づき前記車両と前記第1計測手段との相対位置姿勢を推定する車両センサ相対姿勢推定部と、を有するキャリブレーションシステム。
  2.  請求項1記載のキャリブレーションシステムにおいて、
     前記車両に第2計測手段が取り付けられており、
     前記キャリブレーションシステムにおいて求めた前記車両と前記第1計測手段または前記第2計測手段との相対位置姿勢に基づき、前記第1計測手段および前記第2計測手段の相対位置姿勢を求める車両センサ相対位置姿勢推定部を有するキャリブレーションシステム。
PCT/JP2016/076224 2016-02-29 2016-09-07 センサキャリブレーションシステム WO2017149813A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018502510A JP6533619B2 (ja) 2016-02-29 2016-09-07 センサキャリブレーションシステム
US15/779,676 US10705184B2 (en) 2016-02-29 2016-09-07 Sensor calibration system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-036563 2016-02-29
JP2016036563 2016-02-29

Publications (1)

Publication Number Publication Date
WO2017149813A1 true WO2017149813A1 (ja) 2017-09-08

Family

ID=59742705

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/076224 WO2017149813A1 (ja) 2016-02-29 2016-09-07 センサキャリブレーションシステム

Country Status (3)

Country Link
US (1) US10705184B2 (ja)
JP (1) JP6533619B2 (ja)
WO (1) WO2017149813A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019175049A (ja) * 2018-03-28 2019-10-10 ヤンマー株式会社 作業車両の自動走行装置
WO2020020599A1 (de) * 2018-07-24 2020-01-30 Audi Ag Verfahren, system und elektronische recheneinrichtung zum überprüfen von sensoreinrichtungen von fahrzeugen, insbesondere von kraftfahrzeugen
WO2020121882A1 (ja) * 2018-12-13 2020-06-18 ソニー株式会社 制御装置、制御方法、および制御プログラム
JPWO2021024711A1 (ja) * 2019-08-02 2021-02-11
JP2021518553A (ja) * 2018-03-21 2021-08-02 ズークス インコーポレイテッド センサー較正
US11313685B2 (en) 2019-01-25 2022-04-26 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and apparatus for generating driving path
JP7100413B1 (ja) 2021-09-15 2022-07-13 日立建機株式会社 自律走行鉱山車両
WO2023243374A1 (ja) * 2022-06-17 2023-12-21 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、測定システム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9772395B2 (en) 2015-09-25 2017-09-26 Intel Corporation Vision and radio fusion based precise indoor localization
JP6500852B2 (ja) * 2016-07-11 2019-04-17 株式会社安川電機 ロボットシステム、ロボットの制御方法、ロボットコントローラ
US10901420B2 (en) 2016-11-04 2021-01-26 Intel Corporation Unmanned aerial vehicle-based systems and methods for agricultural landscape modeling
EP3454075B1 (en) * 2017-09-11 2021-10-06 Nxp B.V. Object-detection system calibration
CN109901123B (zh) * 2018-12-24 2023-12-01 文远知行有限公司 传感器标定方法、装置、计算机设备和存储介质
US11333739B2 (en) * 2019-02-26 2022-05-17 Magna Electronics Inc. Vehicular radar system with automatic sensor alignment
US11112490B2 (en) * 2019-04-15 2021-09-07 Argo AI, LLC Apparatus for joint calibration of radar and camera systems for autonomous vehicle applications
SE543438C2 (en) * 2019-06-20 2021-02-16 Scania Cv Ab Method, control arrangement and drone for calibration of vehicle sensors
DE102020213980A1 (de) * 2020-11-06 2022-05-12 Robert Bosch Gesellschaft mit beschränkter Haftung Kalibrierverfahren und Kalibriersystem für einen Fahrzeugsensor
DE102021208738A1 (de) 2021-08-11 2023-02-16 Zf Friedrichshafen Ag Computerimplementiertes Verfahren und Computerprogramm zur Generierung von virtuellen Fahrstrecken und Entwicklung und/oder Validierung von Funktionalitäten eines automatisierten Fahrsystems auf den generierten Fahrstrecken

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010151682A (ja) * 2008-12-25 2010-07-08 Topcon Corp レーザスキャナ及びレーザスキャナ測定システム及びレーザスキャナ測定システムの較正方法及び較正用ターゲット
US20110122257A1 (en) * 2009-11-25 2011-05-26 Honeywell International Inc. Geolocation of objects in an area of interest
JP2013079816A (ja) * 2011-09-30 2013-05-02 Furuno Electric Co Ltd レーダ基準方位補正装置、レーダ装置、レーダ基準方位補正プログラム、及びレーダ基準方位補正方法
JP2014153211A (ja) * 2013-02-08 2014-08-25 Furukawa Electric Co Ltd:The 周辺監視システム及び周辺監視システムの軸ずれ検知方法
JP5819555B1 (ja) * 2015-04-01 2015-11-24 ライトブレインラボ合同会社 車両運転支援システム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010249613A (ja) 2009-04-14 2010-11-04 Toyota Motor Corp 障害物認識装置及び車両制御装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010151682A (ja) * 2008-12-25 2010-07-08 Topcon Corp レーザスキャナ及びレーザスキャナ測定システム及びレーザスキャナ測定システムの較正方法及び較正用ターゲット
US20110122257A1 (en) * 2009-11-25 2011-05-26 Honeywell International Inc. Geolocation of objects in an area of interest
JP2013079816A (ja) * 2011-09-30 2013-05-02 Furuno Electric Co Ltd レーダ基準方位補正装置、レーダ装置、レーダ基準方位補正プログラム、及びレーダ基準方位補正方法
JP2014153211A (ja) * 2013-02-08 2014-08-25 Furukawa Electric Co Ltd:The 周辺監視システム及び周辺監視システムの軸ずれ検知方法
JP5819555B1 (ja) * 2015-04-01 2015-11-24 ライトブレインラボ合同会社 車両運転支援システム

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7308855B2 (ja) 2018-03-21 2023-07-14 ズークス インコーポレイテッド センサー較正
JP2021518553A (ja) * 2018-03-21 2021-08-02 ズークス インコーポレイテッド センサー較正
JP2019175049A (ja) * 2018-03-28 2019-10-10 ヤンマー株式会社 作業車両の自動走行装置
WO2020020599A1 (de) * 2018-07-24 2020-01-30 Audi Ag Verfahren, system und elektronische recheneinrichtung zum überprüfen von sensoreinrichtungen von fahrzeugen, insbesondere von kraftfahrzeugen
CN112470024A (zh) * 2018-07-24 2021-03-09 奥迪股份公司 检查车辆、特别是机动车的传感器装置的方法、***和电子计算装置
WO2020121882A1 (ja) * 2018-12-13 2020-06-18 ソニー株式会社 制御装置、制御方法、および制御プログラム
US12018926B2 (en) 2018-12-13 2024-06-25 Sony Group Corporation Controller and control method
JP7472796B2 (ja) 2018-12-13 2024-04-23 ソニーグループ株式会社 制御装置、制御方法、および制御プログラム
US11313685B2 (en) 2019-01-25 2022-04-26 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and apparatus for generating driving path
JPWO2021024711A1 (ja) * 2019-08-02 2021-02-11
JP7232336B2 (ja) 2019-08-02 2023-03-02 日立Astemo株式会社 エイミング装置、運転制御システム、及びセンサデータの補正パラメータの計算方法
JP2023042673A (ja) * 2021-09-15 2023-03-28 日立建機株式会社 自律走行鉱山車両
WO2023042451A1 (ja) * 2021-09-15 2023-03-23 日立建機株式会社 自律走行鉱山車両
JP7100413B1 (ja) 2021-09-15 2022-07-13 日立建機株式会社 自律走行鉱山車両
WO2023243374A1 (ja) * 2022-06-17 2023-12-21 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、測定システム

Also Published As

Publication number Publication date
JP6533619B2 (ja) 2019-06-19
US10705184B2 (en) 2020-07-07
JPWO2017149813A1 (ja) 2018-09-13
US20180372841A1 (en) 2018-12-27

Similar Documents

Publication Publication Date Title
JP6533619B2 (ja) センサキャリブレーションシステム
JP7301909B2 (ja) 地図データ、レーザ、およびカメラからのヨー誤差の確定
US11670193B2 (en) Extrinsic parameter of on-board sensor
JP6827627B2 (ja) ビークル環境マップを生成および更新するための方法およびシステム
Rose et al. An integrated vehicle navigation system utilizing lane-detection and lateral position estimation systems in difficult environments for GPS
EP3306429B1 (en) Position estimation device and position estimation method
US8301374B2 (en) Position estimation for ground vehicle navigation based on landmark identification/yaw rate and perception of landmarks
EP3521962B1 (en) Self-position estimation method and self-position estimation device
JP2020085886A (ja) 乗物、乗物測位システム、及び乗物測位方法
US10955857B2 (en) Stationary camera localization
US11908164B2 (en) Automatic extrinsic calibration using sensed data as a target
CN110859044A (zh) 自然场景中的集成传感器校准
WO2015098344A1 (ja) 鉱山用作業機械
JP6834401B2 (ja) 自己位置推定方法及び自己位置推定装置
US10249056B2 (en) Vehicle position estimation system
JP2023176361A (ja) 移動体制御システムおよび移動体制御方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018502510

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16892651

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 16892651

Country of ref document: EP

Kind code of ref document: A1