WO2018173907A1 - 車両制御装置 - Google Patents

車両制御装置 Download PDF

Info

Publication number
WO2018173907A1
WO2018173907A1 PCT/JP2018/010153 JP2018010153W WO2018173907A1 WO 2018173907 A1 WO2018173907 A1 WO 2018173907A1 JP 2018010153 W JP2018010153 W JP 2018010153W WO 2018173907 A1 WO2018173907 A1 WO 2018173907A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
information acquisition
control device
acquisition unit
vehicle control
Prior art date
Application number
PCT/JP2018/010153
Other languages
English (en)
French (fr)
Inventor
知靖 坂口
大司 清宮
義幸 吉田
Original Assignee
日立オートモティブシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立オートモティブシステムズ株式会社 filed Critical 日立オートモティブシステムズ株式会社
Priority to EP18772505.6A priority Critical patent/EP3605013B1/en
Priority to US16/465,117 priority patent/US10871380B2/en
Priority to CN201880005504.9A priority patent/CN110418937A/zh
Priority to JP2019507606A priority patent/JPWO2018173907A1/ja
Publication of WO2018173907A1 publication Critical patent/WO2018173907A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C22/00Measuring distance traversed on the ground by vehicles, persons, animals or other moving solid bodies, e.g. using odometers, using pedometers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/02Registering or indicating driving, working, idle, or waiting time only
    • G07C5/06Registering or indicating driving, working, idle, or waiting time only in graphical form
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera

Definitions

  • the present invention relates to a vehicle control device that estimates a wheel travel distance for estimating the position of the host vehicle.
  • a wheel speed sensor mounted on each wheel of a vehicle has been used for estimating the position of the host vehicle in automatic driving, automatic parking, and navigation.
  • the wheel speed sensor generates a pulse signal per certain rotation angle (for example, 4 degrees).
  • a pulse signal per certain rotation angle for example, 4 degrees.
  • Patent Literature 1 images of the same feature on the road are continuously acquired during traveling, the number of vehicle speed pulses between the times is measured, the calculated traveling distance, and the time corresponding to the traveling distance It is shown that one pulse distance is corrected based on the vehicle speed pulse at.
  • Patent Document 2 using a stereo camera mounted on a vehicle, the distance to a stationary object in front of the stereo camera is measured, and a change in the distance from the stationary object due to traveling of the vehicle is used as a reference distance. It has been shown to correct the distance.
  • Patent Document 3 discloses that one pulse distance of a vehicle speed pulse is corrected using road distance information between two points obtained from the outside as a reference distance.
  • Patent Document 1 in acquiring an image of a feature object using one camera, the distance of the feature object is far from the camera, or the length of a reference distance used for measuring the number of vehicle speed pulses is limited, so accuracy is reduced. I can't raise it.
  • Patent Document 2 does not simply limit a feature to a feature on the road surface, and has the same problem as Patent Document 1.
  • Patent Document 3 has another problem of accuracy and acquisition method of road distance information and detection accuracy of a reference point.
  • the angle resolution of the camera is determined by the elevation angle direction and the left-right angle direction from the front of the camera, and the camera distance resolution is proportional to the camera direction with respect to the imaging target and the distance between the camera and the imaging target object. To do.
  • the angular resolution of the camera is not uniform over the entire captured image of the camera, the angular resolution is relatively good at the center of the captured image, and the angular resolution is not relatively good at the peripheral part. There are many. Therefore, the measurement accuracy cannot be increased unless the distance between the camera and the feature used for the reference distance is reduced and the feature is captured in a direction in which the angular resolution of the camera is good.
  • an object of the present invention is to improve the estimation accuracy of the travel distance for estimating the position of the host vehicle.
  • the vehicle control device includes a plurality of information acquisition units and a travel distance calculation unit.
  • the plurality of information acquisition units are provided in front of and behind the vehicle, and acquire external information.
  • the mileage calculation unit acquires a rear information acquisition unit after the front information acquisition unit of the plurality of information acquisition units acquires information on the same feature while the vehicle is traveling in a predetermined driving state, The travel distance of the vehicle is calculated based on the information on the same feature acquired by the front information acquisition unit and the rear information acquisition unit.
  • the reference distance between the information acquisition units can be secured, and the actual running distance can be measured in the area where the front and rear cameras are accurate.
  • FIG. 1 is a schematic structural diagram of a vehicle according to Embodiment 1.
  • FIG. 1 is a block diagram of a vehicle control device according to a first embodiment.
  • 1 is a side view of a vehicle according to a first embodiment.
  • FIG. 3 is an explanatory diagram of a calibration method by the camera according to the first embodiment.
  • FIG. The top view explaining the relationship between the vehicle which concerns on Example 1, and a characteristic object.
  • FIG. 5 is a flow of measurement processing according to the first embodiment. The flow of the vehicle state monitoring process which concerns on Example 1.
  • FIG. FIG. 6 is an explanatory diagram of a straight traveling condition of the measurement process according to the first embodiment.
  • FIG. 6 is an explanatory diagram of a straight traveling condition of the measurement process according to the first embodiment.
  • FIG. 3 is an explanatory diagram of road surface conditions for measurement processing according to the first embodiment.
  • FIG. 3 is an explanatory diagram of a communication status of measurement processing according to the first embodiment.
  • Explanatory drawing of the road surface unevenness detection sensor which concerns on Example 2.
  • FIG. Explanatory drawing of the road surface display detection sensor which concerns on Example 3.
  • FIG. Explanatory drawing of the measurement attitude
  • FIG. 1 is a schematic configuration diagram illustrating an example of a vehicle including a vehicle control device according to the present embodiment.
  • the vehicle control device 1 is mounted on the vehicle 10.
  • the vehicle control device 1 includes a wheel speed sensor 2 to 5 as a “running state detection unit”, an ABS / ESC ECU (Electronic Control Unit) 6, a front information acquisition unit, and a front as a rear information acquisition unit. And rear cameras 7 and 8 and a camera controller 9.
  • the wheel speed sensors 2 to 5 are connected to the ABS / ESC ECU 6, and when the sensor rotors 15 to 18 attached to the wheels 11 to 14 are rotated, the unevenness provided on the sensor rotors 15 to 18 is reduced. Pass through and generate a pulse waveform.
  • the camera controller 9 is connected to the wheel speed sensors 2 to 5, detects the rise and fall of the pulse waveform, and counts the number of times. The total number of rises and falls of the pulse waveform during one rotation of the wheels 11 to 14 is determined by the number of teeth of the sensor rotors 15 to 18, and is counted, for example, 90 times per rotation of the wheel.
  • the front and rear cameras 7 and 8 are connected to the camera controller 9 and sequentially transmit external image data of the vehicle 10 to the camera controller 8.
  • the camera controller 9 recognizes various external worlds based on the image data, processes the image and displays it on the monitor device 19 so that it can be viewed by the passenger.
  • the ABS / ESC ECU 6 and the camera controller 9 can communicate with each other via a vehicle network (CAN) 20.
  • the ABS / ESC ECU 6 transmits a message including a counter value obtained by counting the pulse waveforms of the wheel speed sensors 2 to 5 to the CAN 20.
  • Other controllers including the camera controller 9 can obtain the counter values of the wheel speed sensors 2 to 5 by receiving this message from the CAN 20.
  • FIG. 2 is a control block diagram of the vehicle control device.
  • the vehicle control device 1 includes a wheel speed sensor control unit 21, a camera control unit 22, and a measurement control unit 23 as a “travel distance calculation unit” as basic components.
  • the vehicle control device 1 measures the wheel speed pulse distance based on signals input from the wheel speed sensors 2 to 5, the front camera 7, and the rear camera 8.
  • FIG. 3 is a diagram showing a method of installing the front and rear cameras on the vehicle.
  • the front and rear cameras 7 and 8 are provided, for example, at the front end and the rear end of the vehicle 10. While the vehicle 10 is traveling, the front and rear road surfaces and the rear and the road surfaces are imaged, respectively. Information on the same feature 30 can be acquired.
  • FIG. 4 is a diagram showing a calibration method for the front and rear cameras.
  • a road surface with a known relative position with respect to the vehicle 10 is displayed in order to correct mounting accuracy errors and manufacturing errors of the front and rear cameras 7 and 8 themselves.
  • the vehicle 10 is stopped at the place in advance, and the road surface display is captured by the front and rear cameras 7 and 8. Thereby, the display position on the picked-up image of road surface display and the relative position with the vehicle 10 are linked
  • the blank portion between the road surface displays is also complemented as appropriate based on the characteristics of the front and rear cameras 7 and 8 and the camera lens, and the relative position of the entire captured image with the vehicle 10 on the road surface is associated.
  • a coordinate system having the origin O as the center of the rear wheel axle of the vehicle 10 is used.
  • FIG. 5 is a diagram showing the measurement principle of the vehicle control device.
  • the relative position of the feature 30 captured by the front camera 7 with respect to the vehicle 10 is stored, and the wheel speed pulse counter value received from the ABS / ESC ECU 6 is stored.
  • the vehicle 10 goes straight and the same feature 30 is imaged by the rear camera 8.
  • the moving distance per wheel speed pulse counter value can be calculated using the relative position of the feature 30 captured by the rear camera 8 with the vehicle 10 and the value of the wheel speed pulse counter value at that time.
  • the calculation formula is (measurement distance by front camera 7 + measurement distance by rear camera 8) / (count increment of wheel speed pulse counter value).
  • FIG. 6 is a top view of a linear feature.
  • the feature 30 may be a straight line display 30a that is displayed on the road and is oriented substantially perpendicular to the traveling direction of the vehicle 10.
  • the relative position of the straight line display 30a with the vehicle 10 is, for example, the intersection coordinate L1 with the center line L of the captured images of the front and rear cameras 7 and 8, or the center in the coordinate system of the vehicle 10 Use the coordinates of the intersection with the line.
  • FIG. 7 is a top view of features other than a straight line.
  • the feature 30 may be, for example, a circular feature. Even when the circular feature 30b is imaged, a portion of the circular feature 30b that is close to a right angle with the traveling direction intersects the center line of the captured images of the front and rear cameras 7 and 8 and the center line in the coordinate system of the vehicle 10. If so, it can be handled in the same manner as in the case of the straight line display 30a. Furthermore, when the feature point of the circular feature 30b recognized by the front camera 7 can be recognized by the rear camera 8, the front and rear coordinates of such feature point may be used. As such a feature point, for example, there is a method in which the foremost point of the circular feature 30b as viewed from the vehicle 10 is a feature point.
  • FIG. 8 is a diagram illustrating a state in which an image captured by the front camera and an image captured by the rear camera are collated.
  • the image captured by the rear camera 8 is slid back and forth with respect to the image captured by the front camera 7, the most matching point is identified, and the amount of vehicle movement is identified.
  • FIG. 9 is a flowchart of the measurement process of the present invention.
  • the state of the vehicle 10 is suitable for measurement (S101).
  • the measurement conditions include a vehicle speed upper limit condition, a straight traveling condition, an acceleration / deceleration condition, and a road surface condition.
  • the feature 30 is detected by the front camera 7 (S102). Specifically, the candidate for the feature object 30 is detected based on the captured image in which the resolution of the front camera 7 is reduced. If the determination result in S101 is false (S101: NO), this measurement process is immediately stopped.
  • the process waits until the predicted counter value of the wheel speed pulse counter that requires imaging of the rear camera (S106).
  • the predicted counter value uses a value obtained by adding an integer calculated from, for example, (vehicle length ⁇ length per count) to the current counter value.
  • FIG. 10 is a flowchart of the vehicle state monitoring process.
  • the vehicle state monitoring process in step 104 of FIG. 9 will be described.
  • the vehicle state monitoring process determines whether or not the state of the vehicle 10 is suitable for measurement (S101). If the determination result in S101 is true (S101: YES), it is determined whether measurement is in progress (S201). If the determination result in S201 is true (S201: YES), the process returns to step 101. When the determination result in S201 is false (S201: NO), the process returns to the initial state. If the determination result in S101 is false (S201: NO), the measurement is interrupted (S202) and the initial state is restored.
  • FIG. 11 is a diagram illustrating a straight traveling condition for performing the measurement process.
  • the steering sensor When the steering sensor indicates a steering angle sensor value within a certain range indicating straight travel, it can be determined that the vehicle 10 travels straight.
  • FIG. 12 is a diagram illustrating a straight traveling condition for performing the measurement process.
  • FIG. 13 is a diagram showing road surface conditions for carrying out the measurement process.
  • the load of each wheel 11 to 14 of the vehicle 10 changes, thereby generating the pitch angle and roll angle of the vehicle 10, and the front and rear cameras 7,
  • the road surface position of 8 also changes. If this becomes large, the correspondence between the captured image and the vehicle coordinates adjusted by calibration also changes greatly, and therefore whether or not measurement is possible is determined by some threshold value. Further, even in the case where the pitch angle is increased due to acceleration / deceleration, whether or not the measurement is possible is determined using a threshold value.
  • the gradient and acceleration / deceleration can be detected from a G sensor mounted on the ABS / ESC ECU 6 or a vehicle speed value.
  • FIG. 14 shows a method for notifying the pulse detection timing with a time resolution higher than the communication cycle.
  • the ABS / ESC / ECU 6 When the pulse detection interval can be measured with a resolution shorter than the message transmission cycle to the in-vehicle network 20, the ABS / ESC / ECU 6 has a timer or a minute cycle counter for measuring the pulse detection interval internally. ing. The ABS / ESC / ECU 6 reads this timer value or minute cycle counter value at the transmission timing of the message 24 and adds it to the message 24 to enable this method. As a result, assuming that the wheel speed is substantially constant, the pulse count number at the time of transmission of the message 24 can be handled with a numerical value less than an integer in a pseudo manner. As a result, it is possible to reduce an error due to the resolution caused by the pulse count number being an integer.
  • the vehicle control device 1 includes the front and rear cameras 7 and 8 and the measurement control unit 23.
  • the front and rear cameras 7 and 8 are provided in front of and behind the vehicle 10 and acquire information on external world information.
  • the measurement control unit 23 is acquired by the rear information acquisition unit 8 after the front information camera 7 acquires information on the same feature 30, and the front camera 7 and the rear camera 8 are acquired.
  • the travel distance of the vehicle 10 is calculated on the basis of the information on the same feature 30 acquired.
  • the feature 30 on the road can be photographed as close as possible with the front camera 7 while the vehicle 10 is traveling, and then the same feature 30 can be photographed as close as possible with the rear camera 8.
  • the actual running distance can be measured in a highly accurate area of the front and rear cameras 8 and 9 while securing the reference distance.
  • the vehicle control device 1 includes wheel speed sensors 2 to 5 that detect the traveling state of the vehicle 10, and the wheels between the time when the front camera 7 acquires the information about the same feature 30 and the time when the rear camera 8 acquires it. Based on the results detected by the speed sensors 2 to 5, the travel distance of the vehicle 10 calculated by the measurement control unit 23 is corrected. Accordingly, the travel distance per one wheel speed pulse can be calculated based on the wheel speed pulse and the count number, and the measurement accuracy of the travel distance of the vehicle 10 calculated by the measurement control unit 23 can be improved. .
  • the front camera 7 is an imaging device that images the front of the vehicle 10
  • the rear camera 8 is an imaging device that images the rear of the vehicle 10, and thus the existing in-vehicle camera that acquires external information is used as the front camera 7. It can also be used for the rear camera 8.
  • the predetermined driving state is a state in which the steering of the vehicle 10 is neutral, the inclination of the vehicle body 10 can be detected and the measurement accuracy of the travel distance can be increased.
  • the wheel speed sensors 2 to 5 acquire the wheel speed pulses of the left and right wheels, and the predetermined driving state is a state in which the wheel speed pulses of the left and right wheels 11 to 14 coincide with each other.
  • the measurement accuracy of the travel distance can be improved.
  • the vehicle 10 includes an acceleration sensor, and the predetermined driving state is a state in which the acceleration sensor does not detect acceleration. Therefore, the inclination of the vehicle body 10 can be easily detected, and the measurement accuracy of the travel distance can be improved.
  • the wheel speed sensors 2 to 5 detect the number of rotations of the wheels 11 to 14, and the detection cycle of the number of rotations of the wheels 11 to 14 is shorter than the transmission cycle to the measurement control unit 23. It can be engraved, and the measurement accuracy of the travel distance can be improved.
  • a sensor device that scans the road surface is used as the front and rear information acquisition unit instead of a camera. Since the purpose of use of the external information acquisition device in the present invention is to extract feature points on the road surface, various types of sensor devices capable of doing so can be used.
  • FIG. 16 is a diagram illustrating a road surface unevenness detection sensor.
  • the road surface unevenness detection sensors 31 and 32 are installed downward on the vehicle 10 and measure the distance between the road surface unevenness and the road surface.
  • the type of sensor may be anything as long as distance measurement is possible.
  • the reference distance is measured by collating the uneven shape detected by the front sensor 31 with the uneven shape detected by the rear sensor 32.
  • feature points are extracted from the concavo-convex shape, and the relative coordinates of the vehicle 10 and wheel speed pulses are extracted for the same feature points by the front sensor 31 and the rear sensor 32. Each counter value may be acquired.
  • the vehicle control device 1 includes a sensor that scans a change in the unevenness of the road surface while the vehicle 10 is traveling, it is possible to measure the feature object 30 according to the road surface shape, and to improve the measurement accuracy of the feature object 30. Can do.
  • FIG. 17 is a diagram illustrating a road surface display detection sensor.
  • the road surface display detection sensors 33 and 34 are installed downward on the vehicle 10 and measure the color and brightness of the road surface. Any sensor can be used as long as it can identify the color and brightness of the road surface.
  • the reference distance is measured by collating the color change or brightness change detected by the front sensor 33 with the color change or brightness change detected by the rear sensor 34.
  • feature points are extracted from color changes and light / dark changes, and the front sensor 33 and the rear sensor 34 determine the same feature point relative to the vehicle 10.
  • Each wheel speed pulse counter value may be acquired.
  • the vehicle control device 1 includes a sensor that scans a change in light intensity or color of the road surface while the vehicle 10 is traveling. Therefore, the vehicle control device 1 can measure the feature object 30 according to the type of the road surface. Can be improved.
  • FIG. 14 is a diagram in which the imaging direction of the camera is directed to the ground side more than usual in order to improve the accuracy of distance measurement of the characteristic object by imaging during the main measurement.
  • the elevation angles of the front and rear cameras 7 and 8 may be directed toward the ground before the front and rear cameras 7 and 8 image the information of the feature 30. Accordingly, the distance resolution per pixel of the front and rear cameras 7 and 8 can be increased while suppressing the influence of the camera optical axis shift due to the change in the posture of the vehicle 10 or camera vibration, and the measurement accuracy of the feature 30 can be improved. Can be improved.
  • Example of this invention was explained in full detail, this invention is not limited to an above-described Example, Various modifications are included.
  • the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. It is also possible to add a part of the configuration of another embodiment to the configuration of a certain embodiment, and delete a part of the configuration of a certain embodiment or replace it with a part of another embodiment. Is possible.
  • the time when the rear camera 8 acquires the information about the same feature 30 may be estimated. Therefore, since it is only necessary to acquire information before and after the timing when the rear camera 8 acquires information on the same feature object 30, the number of times of photographing by the rear camera 8 can be reduced.
  • SYMBOLS 1 Vehicle control apparatus, 7 ... Front camera, 8 ... Back camera, 10 ... Vehicle, 23 ... Measurement control part, 30 ... Feature, 30a ... Straight line display, 30b ... Circular feature, 31, 32 ... Road surface unevenness detection sensor , 33, 34 ... road surface display detection sensor

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Navigation (AREA)

Abstract

本発明は、自車両の位置を推定するための走行距離の推定精度を高める。車両制御装置1は、前方および後方カメラ8,9と、測定制御部23とを備える。前方および後方カメラ8,9は、車両10の前後に設けられ、外界の情報を取得する。測定制御部23は、車両10が所定の運転状態で走行中に、同一の特徴物30の情報を前方カメラ8が取得した後に後方カメラ9が取得し、前方カメラ8および後カメラ9が取得した同一の特徴物30の情報に基づいて車両10の走行距離を算出する。

Description

車両制御装置
 本発明は、自車両の位置を推定するための車輪走行距離を推定する車両制御装置に関する。
 近年、自動運転、自動駐車およびナビゲーションにおける自車両の位置の推定には、車両の各車輪に装着された車輪速センサが用いられている。車輪速センサは、一定の回転角(例えば、4度)当りのパルス信号を生成する。1パルス当りの走行距離(1パルス距離)を予め入力して設定することによって、生成されたパルス信号に基づいて各車輪の走行距離を算出することができ、車両の速度および移動距離は、勿論のこと、左右の車輪の走行距離の差分に基づき車両の旋回の様子までをも知ることができる。しかし、1パルス距離もしくはタイヤ1回転当りの走行距離(タイヤ周長)は、一旦設定すると、設定を更新しない限り、変更されることはない。例えば、タイヤ交換、摩耗、および経年変化等によって、タイヤ周長が変わったときに、車輪速センサによって測定する走行距離に誤差が生じる。そのため、1パルス距離もしくはタイヤ周長(以下、まとめて1パルス距離と呼ぶ)が変化した場合、補正する必要がある。
 1パルス距離の変化を補正するための補正方法は、幾つか考案されている。例えば、GPS(Global Positioning System)による車速(走行距離)測定と、車輪速パルスカウント数とを比較する方法がある。GPSによる方法は、GPSによる測定自体の揺らぎが大きく、1パルス距離を補正する目的に必要な精度は、得られないと考えられる。
 特許文献1では、走行中に道路上の同じ特徴物の画像を連続的に取得し、時刻間の車速パルス数を計測していることと、算出した走行距離と、その走行距離に対応する時間における車速パルスとに基づいて、1パルス距離を補正することとが示されている。
 特許文献2では、車両に搭載したステレオカメラを用いて、ステレオカメラ前方の静止物との距離を測定し、車両の走行による静止物との距離の変化分を基準距離として、車速パルスの1パルス距離を補正することが示されている。
 特許文献3では、外部から入手した2地点間の道路距離情報を基準距離として、車速パルスの1パルス距離を補正することが示されている。
特開2008-82925号公報 特開2004-317206号公報 特開2009-115485号公報
 しかしながら、特許文献1のように、1つのカメラによる特徴物の画像取得では、カメラから特徴物の距離が遠く、もしくは車速パルス数の測定に用いる基準距離の長さに制限が生じるので、精度を上げることができない。
 特許文献2は、単純に特徴物を路面上の特徴物に限定しないだけであり、特許文献1と同じ課題がある。
 特許文献3は、道路距離情報の精度と入手方法、および基準地点の検出精度という別の課題がある。
 カメラの角度分解能は、カメラの正面からの仰角方向と、左右角方向とでそれぞれ決まっており、カメラの距離分解能は、撮像対象に対するカメラの方向と、カメラと撮像対象物との距離とに比例する。
 さらに、一般的にカメラの角度分解能は、カメラの撮像画像全面で均一ではなく、撮像画像の中心部では、角度分解能が比較的良好であり、周辺部では、角度分解能が比較的良好ではないことが多い。従って、カメラと、基準距離に使用する特徴物との間の距離を近づけつつ、特徴物をカメラの角度分解能が良好な方向で捉えなければ、測定精度を上げることができない。
 さらに、そのような特徴物の検出精度の問題を矮小化するためには、基準距離を長めに採らなければならない。ただし、特徴物の測定のために基準距離を車両が走行している間、車両は直進しなければならず、余りに長い基準距離は、実用的ではない。
 そこで、本発明の目的は、自車両の位置を推定するための走行距離の推定精度を高めることにある。
 車両の制御装置は、複数の情報取得部と、走行距離算出部とを備える。複数の情報取得部は、車両の前後に設けられ、外界の情報を取得する。走行距離算出部は、前記車両が所定の運転状態で走行中に、同一の特徴物の情報を前記複数の情報取得部のうちの前方情報取得部が取得した後に後方情報取得部が取得し、前記前方情報取得部および前記後方情報取得部が取得した前記同一の特徴物の情報に基づいて前記車両の走行距離を算出する。
 情報取得部間の基準距離を確保でき、前後カメラの精度の良い領域で実走距離を測定できる。
実施例1に係る車両の概略構造図。 実施例1に係る車両制御装置のブロック図。 実施例1に係る車両の側面図。 実施例1に係るカメラによるキャリブレーション方法の説明図。 実施例1に係る車輪速パルス距離の測定原理の説明図。 実施例1に係る車両と特徴物との関係を説明する平面図。 実施例1に係る車両と特徴物との関係を説明する平面図。 実施例1に係る前方および後方カメラによる撮像画像の照合の説明図。 実施例1に係る測定処理の流れ。 実施例1に係る車両状態監視処理の流れ。 実施例1に係る測定処理の直進条件の説明図。 実施例1に係る測定処理の直進条件の説明図。 実施例1に係る測定処理の路面条件の説明図。 実施例1に係る測定処理の通信状況の説明図。 実施例2に係る路面凹凸検知センサの説明図。 実施例3に係る路面表示検知センサの説明図。 実施例4に係る前後カメラによる測定姿勢の説明図。
 幾つかの実施例を、図面を参照して詳細に説明する。なお、各図中、同一の作用または機能を有する部材または要素には、同一の符号を付し、重複した説明を適宜省略する。
 図1は、本実施例に係る車両制御装置を備えた車両の一例を示す概略構成図である。
 車両制御装置1は、車両10に搭載されている。車両制御装置1は、「走行状態検出部」としての車輪速センサ2~5と、ABS/ESC ECU(Electronic Control Unit)6と、「前方情報取得部」および「後方情報取得部」としての前方および後方カメラ7,8と、カメラコントローラ9とを備えている。
 車輪速センサ2~5は、ABS/ESC ECU6と接続されており、車輪11~14に取り付けられた、センサロータ15~18が回転することによって、そのセンサロータ15~18に設けられた凹凸が通過し、パルス波形を発生する。カメラコントローラ9は、車輪速センサ2~5と結線され、パルス波形の立ち上がりと立下りとを検出し、その回数をカウントしている。車輪11~14が1回転する間のパルス波形の立ち上がりと立下りとの合計回数は、センサロータ15~18の歯数によって決まり、例えば、車輪1回転当り90回カウントされる。前方および後方カメラ7,8は、カメラコントローラ9に接続されており、車両10の外界画像データを逐次カメラコントローラ8に伝送する。カメラコントローラ9は、その画像データを基に様々な外界を認識したり、画像を加工してモニタ装置19への表示を行い、乗員から視認できるようにする。
 ABS/ESC ECU6と、カメラコントローラ9とは、車内ネットワーク(CAN)20によって相互に通信することができる。ABS/ESC ECU6は、車輪速センサ2~5のパルス波形をカウントしたカウンタ値を含むメッセージを、このCAN20に送信する。カメラコントローラ9を含む他のコントローラは、このメッセージをCAN20から受信することによって、車輪速センサ2~5のカウンタ値を取得することができる。
 図2は、車両制御装置の制御ブロック図である。
 車両制御装置1は、車輪速センサ制御部21と、カメラ制御部22と、「走行距離算出部」としての測定制御部23とを基本的な構成要素として備える。車両制御装置1は、車輪速センサ2~5と、前方カメラ7と、後方カメラ8とから入力される信号に基づいて、車輪速パルス距離を測定する。
 図3は、前方および後方カメラの車両への設置方法を示す図である。
 前方および後方カメラ7,8は、例えば、車両10の前端と後端とに設けられ、車両10が走行中に、それぞれ前方およびその路面と、後方およびその路面とを撮像して、路面上の同一の特徴物30の情報を取得することができる。
 図4は、前方および後方カメラのキャリブレーション方法を示す図である。
 前方および後方カメラ7,8を車両10に取付後に、取付精度の誤差や、前方および後方カメラ7,8自体の製造誤差を補正するために、車両10との相対位置が既知の路面表示をした場所に車両10を予め停車し、路面表示を前方および後方カメラ7,8に撮像させる。これにより、路面表示の撮像画像上での表示位置と、車両10との相対位置が関連付けられる。路面表示間の空白部分についても、前方および後方カメラ7,8とカメラレンズとの特性に基づいて、適宜補完し、撮像画像全面について路面の車両10との相対位置を関連付ける。車両10との相対位置の表現方法としては、例えば、車両10の後輪車軸中心を原点Oとする座標系を用いる。
 図5は、車両制御装置の測定原理を示す図である。
 前方カメラ7で撮像した特徴物30の車両10との相対位置を記憶するとともに、ABS/ESC ECU6から受信している車輪速パルスカウンタ値の撮像時の値を記憶する。車両10が直進し、同一の特徴物30を後方カメラ8で撮像する。後方カメラ8で撮像した特徴物30の車両10との相対位置と、その時の車輪速パルスカウンタ値の値とを使って、車輪速パルスカウンタ値当りの移動距離を算出することができる。算出式は、(前方カメラ7による測定距離+後方カメラ8による測定距離)÷(車輪速パルスカウンタ値のカウント増分)となる。
 図6は、直線状の特徴物を上から見た図である。
 特徴物30は、路上に表示されており、車両10の進行方向に対して略直角に向けられる直線表示30aであってもよい。直線表示30aを撮像する場合、直線表示30aの車両10との相対位置は、例えば、前方および後方カメラ7,8の撮像画像の中心線Lとの交点座標L1、もしくは車両10の座標系における中心線との交点座標を用いる。
 図7は、直線状以外の特徴物を上から見た図である。
 特徴物30は、例えば、円形の特徴物でもよい。円形特徴物30bを撮像するときも、円形特徴物30bのうちの進行方向と直角に近い部分が、前方および後方カメラ7,8の撮像画像の中心線や車両10の座標系における中心線と交わっていれば、直線表示30aの場合と同様に扱うことができる。さらに、前方カメラ7で認識した円形特徴物30bのうちの特徴点を後方カメラ8で認識できる場合には、そのような特徴点の前後座標を用いてよい。そのような特徴点としては、例えば、円形特徴物30bのうちの、車両10から見て最も前方の点を特徴点とする方法がある。
 図8は、前方カメラによる撮像画像と後方カメラによる撮像画像とを照合する様子を示す図である。
 前方カメラ7による撮像画像に対して、後方カメラ8による撮像画像を前後にスライドし、最も合致するポイントを特定し、車両移動量を特定する。
 図9は、本発明の測定処理のフローチャート図である。
 まず、車両10の状態が測定に適した状態か否かを判定する(S101)。測定条件として、例えば、車速上限条件、直進条件、加減速条件、路面条件などがある。
 S101の判定結果が真の場合(S101:YES)、前方カメラ7によって特徴物30を検知する(S102)。具体的には、前方カメラ7の解像度を落とした撮像画像によって、特徴物30の候補を検知する。S101の判定結果が偽の場合(S101:NO)、本測定処理を直ちに中止する。
 次に、特徴物30の候補を検知したか否かを判定する(S103)。特徴物30の候補を検知すると(S103:YES)、前記測定条件を、測定の間、監視する別プロセスを立ち上げ、監視を開始する(S104)。監視NGとなった場合は(S103:NO)、本測定処理を直ちに中止する。
 次に、カメラ解像度を最良にした状態で、高精度撮像を行う。前方カメラ7の動作周期毎に複数回、撮像し、最も特徴物座標の精度が良いデータを採用し、その時の車輪速パルスカウンタ値とともにメモリに格納する(S105)。
 次に、後方カメラの撮像が必要になる車輪速パルスカウンタの予測カウンタ値まで、ウェイトする(S106)。なお、予測カウンタ値は、現在のカウンタ値に、例えば、(車両長÷1カウント当りの長さ)から算出される整数を加算した値を用いる。
 車輪速パルスカウンタ値が予測カウンタ値になったら(S107:YES)、後方カメラ8による撮像を開始する。後方カメラ8の動作周期毎に複数回撮像し(S108)、最も特徴物座標の精度が良いデータを採用し、その時の車輪速パルスカウンタ値とともにメモリ格納する。最後に、1パルス距離を算出する(S109)。
 図10は、車両状態監視処理のフローチャートである。
 図9のステップ104の車両状態監視処理について説明する。車両状態監視処理は、車両10の状態が測定に適した状態か否かを判定する(S101)。S101の判定結果が真の場合(S101:YES)、測定中であるか否かを判定する(S201)。S201の判定結果が真の場合(S201:YES)、ステップ101に戻る。S201の判定結果が偽の場合(S201:NO)、初期状態に戻る。なお、S101の判定結果が偽の場合(S201:NO)、測定を中断し(S202)、初期状態に戻る。
 図11は、前記測定処理の実施のための直進条件を示す図である。
 操舵センサが、直進を示す一定範囲内の舵角センサ値を示している場合、車両10は直進すると判定することができる。
 図12は、前記測定処理の実施のための直進条件を示す図である。
 左右の車輪11~14のタイヤ周長が等しいと仮定した場合、左右の車輪速パルスカウンタ値の変化分が同じであれば、その間に車両10が直進したと判定することができる。
 図13は、前記測定処理実施のための路面条件を示す図である。
 路面に車両10の前後方向、左右方向の勾配がある場合、車両10の各車輪11~14の荷重が変化し、それによって車両10のピッチ角、ロール角が発生し、前方および後方カメラ7,8の対路面位置も変化する。これが大きくなる場合には、キャリブレーションで調整した、撮像画像と車両座標との対応関係も大きく変わるため、何らかの閾値で測定可否を判定する。さらに、加減速によってピッチ角が大きく生ずるケースについても、閾値で測定可否を判定する。勾配および加減速の検出は、ABS/ESC ECU6に搭載されるGセンサや、車速値から検出することができる。
 図14は、パルス検出タイミングを通信周期よりも高い時間分解能で知らせる方式を示している。
 ABS/ESC ECU6は、パルス検出間隔を車内ネットワーク20へのメッセージ送信周期よりも短い分解能で測定することができる場合には、内部でパルス検出間隔を測定するためのタイマーもしくは微小周期のカウンタを持っている。ABS/ESC ECU6は、メッセージ24の送信タイミングにおいて、このタイマー値もしくは微小周期カウンタ値を読み出し、メッセージ24に付加することによって、本方式が可能となる。これにより、車輪速が略一定であると仮定すると、メッセージ24の送信時点におけるパルスカウント数を疑似的に整数未満の数値で扱うことができる。これによって、パルスカウント数が整数であることに起因する分解能による誤差を低減することができる。
 本実施例によれば、車両制御装置1は、前方および後方カメラ7,8と、測定制御部23とを備える。前方および後方カメラ7,8は、車両10の前後に設けられ、外界情報の情報を取得する。測定制御部23は、車両10が所定の運転状態で走行中に、同一の特徴物30の情報を前方情報カメラ7が取得した後に後方情報取得部8が取得し、前方カメラ7および後方カメラ8が取得した同一の特徴物30の情報に基づいて車両10の走行距離を算出する。これにより、車両10の走行中に道路上の特徴物30を前カメラ7で出来るだけ近くで撮影してから、同一の特徴物30を後カメラ8でも出来るだけ近くで撮影することができるので、基準距離を確保しつつ、前後カメラ8,9の精度の良い領域で実走距離を測定できる。
 車両制御装置1は、車両10の走行状態を検出する車輪速センサ2~5を備え、同一の特徴物30の情報を前方カメラ7が取得してから後方カメラ8が取得するまでの間に車輪速センサ2~5が検知した結果に基づいて、測定制御部23が算出した車両10の走行距離を補正する。これにより、車輪速パルスとカウント数とに基づいて、車輪速パルス1パルス当りの走行距離を算出することができ、測定制御部23が算出した車両10の走行距離の測定精度を高めることができる。
 前方カメラ7は、車両10の前方を撮像する撮像装置であって、後方カメラ8は、車両10の後方を撮像する撮像装置であるので、外界の情報を取得する既存の車載カメラを前方カメラ7および後方カメラ8に兼用することができる。
 所定の運転状態は、車両10の操舵が中立な状態であるので、車体10の傾きを検知し、走行距離の測定精度を高めることができる。
 車輪速センサ2~5は、左右の車輪の車輪速パルスを取得し、所定の運転状態は、左右の車輪11~14の車輪速パルスが一致する状態であるので、車体10の傾きの検知精度が高まり、走行距離の測定精度を高めることができる。
 車両10は、加速度センサを備えており、所定の運転状態は、加速度センサが加速度を検出しない状態であるので、車体10の傾きが検知し易く、走行距離の測定精度を高めることができる。
 車輪速センサ2~5は、車輪11~14の回転数を検出し、車輪11~14の回転数の検出周期を、測定制御部23への送信周期よりも短くしたので、パルスカウント数を細かく刻むことができ、走行距離の測定精度を高めることができる。
 本実施例では、前方および後方情報取得部として、カメラではなく、路面を走査するセンサ装置を用いる。本発明における外部情報取得装置の使用目的は、路面の特徴点抽出であるので、それが可能な様々な種類のセンサ装置を使用することができる。
 図16は、路面凹凸検知センサを説明する図である。
 路面凹凸検知センサ31,32は、車両10に下向きに設置され、路面の凹凸を路面との距離を測距する。なお、センサの種類は、測距が可能なものであれば何でもよい。前方センサ31によって検出された凹凸形状と、後方センサ32によって検出された凹凸形状を照合することによって基準距離を測定する。もしくは、前方および後方カメラ7,8を使用する場合と同様に、凹凸形状から特徴点を抽出し、前方センサ31と後方センサ32で同一の特徴点について、車両10との相対座標と車輪速パルスカウンタ値を、それぞれ取得してもよい。
 車両制御装置1は、車両10の走行中に路面の凹凸の変化を走査するセンサを備えるので、路面形状に応じて特徴物30を測定することができ、特徴物30の測定精度を向上することができる。
 図17は、路面表示検知センサを説明する図である。
 路面表示検知センサ33,34は、車両10に下向きに設置され、路面の色や明暗を測定する。センサの種類は、路面の色や明暗を識別可能なものであれば何でもより。前方センサ33によって検出された色彩変化や明暗変化と、後方センサ34によって検出された色彩変化や明暗変化を照合することによって基準距離を測定する。もしくは、前方および後方カメラ7,8を使用する場合と同様に、色彩変化や明暗変化から特徴点を抽出し、前方センサ33と後方センサ34で同一の特徴点について、車両10との相対座標と車輪速パルスカウンタ値を、それぞれ取得してもよい。
 車両制御装置1は、車両10の走行中に路面の光度または色彩の変化を走査するセンサを備えるので、路面の種類に応じて特徴物30を測定することができ、特徴物30の測定精度を向上することができる。
 図14は、本測定時に、撮像による特徴物の距離測定の精度を向上するために、カメラの撮像方向を通常よりも地面側に向けた図である。
 例えば、前方および後方カメラ7,8が特徴物30の情報を撮像する前に、前方および後方カメラ7,8の仰角を地面側に向けてもよい。これにより、車両10の姿勢の変化やカメラ振動によるカメラ光軸ズレの影響を抑制しつつ、前方および後方カメラ7,8の画素当りの距離分解能を高めることができ、特徴物30の測定精度を向上することができる。
 以上、本発明の実施例について詳述したが、本発明は、上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は、本発明を分かり易く説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成に他の実施例の構成の一部を加えることも可能であり、ある実施例の構成の一部を削除し、あるいは、他の実施例の一部と置き換えることも可能である。
 前方カメラ7が特徴物30の情報を取得した後に、後方情カメラ8が同一の特徴物30の情報を取得する時刻を推定してもよい。これにより、後方情カメラ8が同一の特徴物30の情報を取得するタイミングの前後のみの情報を取得すればよいので、後方カメラ8による撮影回数を減らすことができる。
1…車両制御装置、7…前方カメラ、8…後方カメラ、10…車両、23…測定制御部、30…特徴物、30a…直線表示、30b…円形特徴物、31,32…路面凹凸検知センサ、33,34…路面表示検知センサ

Claims (10)

  1.  車両の前後に設けられ、外界の情報を取得する複数の情報取得部と、
     前記車両が所定の運転状態で走行中に、同一の特徴物の情報を前記複数の情報取得部のうちの前方情報取得部が取得した後に後方情報取得部が取得し、前記前方情報取得部および前記後方情報取得部が取得した前記同一の特徴物の情報に基づいて前記車両の走行距離を算出する走行距離算出部とを備える車両制御装置。
  2.  前記車両の走行状態を検出する走行状態検出部を備え、
     前記同一の特徴物の情報を前記前方情報取得部が取得してから前記後方情報取得部が取得するまでの間に前記走行状態検出部が検出した結果に基づいて、前記走行距離算出部が算出した前記車両の走行距離を補正する、請求項1記載の車両制御装置。
  3.  前記前方情報取得部は、前記車両の前方を撮像する撮像装置であって、前記後方情報取得部は、前記車両の後方を撮像する撮像装置である、請求項1記載の車両制御装置。
  4.  前記前方情報取得部および前記後方情報取得部は、前記車両の走行中に路面の凹凸、光度または色彩の変化を走査するセンサである、請求項1記載の車両制御装置。
  5.  前記所定の運転状態は、前記車両の操舵が中立な状態である、請求項1記載の車両制御装置。
  6.  前記走行状態検出部は、左右の車輪の車輪速パルスを取得する車輪速センサであり、
     前記所定の運転状態は、前記左右の車輪の車輪速パルスが一致する状態である、請求項2記載の車両制御装置。
  7.  前記車両は、加速度センサを備えており、
     前記所定の運転状態は、前記加速度センサが加速度を検出しない状態である、請求項1記載の車両制御装置。
  8.  前記前方情報取得部が前記同一の特徴物の情報を取得した後に、前記後方情報取得部が前記同一の特徴物の情報を取得する時刻を推定する、請求項1記載の車両制御装置。
  9.  前記走行状態検出部は、車輪の回転数を検出する車輪速センサであり、
     前記車輪の回転数の検出周期を、前記走行距離算出部への送信周期よりも短くした、請求項2記載の車両制御装置。
  10.  前記撮像装置が前記同一の情報を撮像する前に、前記撮像装置の仰角を変更する、請求項3記載の車両制御装置。
PCT/JP2018/010153 2017-03-23 2018-03-15 車両制御装置 WO2018173907A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP18772505.6A EP3605013B1 (en) 2017-03-23 2018-03-15 Vehicle control device
US16/465,117 US10871380B2 (en) 2017-03-23 2018-03-15 Vehicle control device
CN201880005504.9A CN110418937A (zh) 2017-03-23 2018-03-15 车辆控制装置
JP2019507606A JPWO2018173907A1 (ja) 2017-03-23 2018-03-15 車両制御装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-057221 2017-03-23
JP2017057221 2017-03-23

Publications (1)

Publication Number Publication Date
WO2018173907A1 true WO2018173907A1 (ja) 2018-09-27

Family

ID=63585287

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/010153 WO2018173907A1 (ja) 2017-03-23 2018-03-15 車両制御装置

Country Status (5)

Country Link
US (1) US10871380B2 (ja)
EP (1) EP3605013B1 (ja)
JP (1) JPWO2018173907A1 (ja)
CN (1) CN110418937A (ja)
WO (1) WO2018173907A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021171758A1 (ja) * 2020-02-27 2021-09-02 株式会社日立製作所 測距センサの校正システム、及び測距センサの校正方法
JP2021147990A (ja) * 2020-03-13 2021-09-27 株式会社リコー 情報処理装置、情報処理方法およびプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102593422B1 (ko) * 2018-10-17 2023-10-26 현대모비스 주식회사 차량의 후진 주행 지원 장치 및 그 제어방법
CN111596090A (zh) * 2020-06-17 2020-08-28 中国第一汽车股份有限公司 车辆行驶速度的测量方法、装置、车辆和介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000097968A (ja) * 1998-09-25 2000-04-07 Japan Aviation Electronics Industry Ltd 速度計および速度測定方法
JP2002267411A (ja) * 2001-03-12 2002-09-18 Nippon Yusoki Co Ltd 搬送車両
JP2004317206A (ja) 2003-04-14 2004-11-11 Fuji Heavy Ind Ltd 車速パルスの補正システムおよび車速パルスの補正方法
US20040221790A1 (en) * 2003-05-02 2004-11-11 Sinclair Kenneth H. Method and apparatus for optical odometry
JP2008082925A (ja) 2006-09-28 2008-04-10 Clarion Co Ltd ナビゲーション装置、その制御方法及び制御プログラム
WO2008139516A1 (ja) * 2007-04-27 2008-11-20 Aisin Aw Co., Ltd. 運転支援装置
JP2009115485A (ja) 2007-11-02 2009-05-28 Clarion Co Ltd ナビゲーション装置、方法及びプログラム
JP2012093100A (ja) * 2010-10-25 2012-05-17 Panasonic Corp 車高計測装置
JP2013120398A (ja) * 2011-12-06 2013-06-17 Isuzu Motors Ltd 車両長推定装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10254007A (ja) * 1997-03-12 1998-09-25 Canon Inc ぶれ防止装置およびこのぶれ防止装置を備えた撮像装置
JP4037131B2 (ja) * 2002-02-28 2008-01-23 三菱電機株式会社 挙動計測装置
DE102004010010B3 (de) * 2004-03-01 2005-10-13 Siemens Ag Verfahren und Überwachungsvorrichtung zur Überwachung einer Radkenngröße eines Rades
JP2007114020A (ja) * 2005-10-19 2007-05-10 Aisin Aw Co Ltd 車両の移動距離検出方法、車両の移動距離検出装置、車両の現在位置検出方法及び車両の現在位置検出装置
WO2014024336A1 (ja) * 2012-08-09 2014-02-13 トヨタ自動車株式会社 物体検出装置及び運転支援装置
JP5820787B2 (ja) * 2012-08-30 2015-11-24 株式会社デンソー 画像処理装置、及びプログラム
JP6107081B2 (ja) * 2012-11-21 2017-04-05 富士通株式会社 画像処理装置、画像処理方法及びプログラム
EP2927060B1 (en) * 2012-11-27 2019-05-08 Clarion Co., Ltd. On-vehicle image processing device
JP6458384B2 (ja) * 2014-07-24 2019-01-30 株式会社デンソー 車線検出装置および車線検出方法
JP6225889B2 (ja) * 2014-11-19 2017-11-08 株式会社豊田中央研究所 車両位置推定装置及びプログラム
EP3734504A1 (en) * 2015-02-10 2020-11-04 Mobileye Vision Technologies Ltd. Sparse map for autonomous vehicle navigation
JP2017021546A (ja) * 2015-07-10 2017-01-26 田山 修一 車輌用画像表示システム及び方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000097968A (ja) * 1998-09-25 2000-04-07 Japan Aviation Electronics Industry Ltd 速度計および速度測定方法
JP2002267411A (ja) * 2001-03-12 2002-09-18 Nippon Yusoki Co Ltd 搬送車両
JP2004317206A (ja) 2003-04-14 2004-11-11 Fuji Heavy Ind Ltd 車速パルスの補正システムおよび車速パルスの補正方法
US20040221790A1 (en) * 2003-05-02 2004-11-11 Sinclair Kenneth H. Method and apparatus for optical odometry
JP2008082925A (ja) 2006-09-28 2008-04-10 Clarion Co Ltd ナビゲーション装置、その制御方法及び制御プログラム
WO2008139516A1 (ja) * 2007-04-27 2008-11-20 Aisin Aw Co., Ltd. 運転支援装置
JP2009115485A (ja) 2007-11-02 2009-05-28 Clarion Co Ltd ナビゲーション装置、方法及びプログラム
JP2012093100A (ja) * 2010-10-25 2012-05-17 Panasonic Corp 車高計測装置
JP2013120398A (ja) * 2011-12-06 2013-06-17 Isuzu Motors Ltd 車両長推定装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021171758A1 (ja) * 2020-02-27 2021-09-02 株式会社日立製作所 測距センサの校正システム、及び測距センサの校正方法
JP7386098B2 (ja) 2020-02-27 2023-11-24 株式会社日立製作所 測距センサの校正システム、及び測距センサの校正方法
JP2021147990A (ja) * 2020-03-13 2021-09-27 株式会社リコー 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
EP3605013A1 (en) 2020-02-05
US20190285432A1 (en) 2019-09-19
JPWO2018173907A1 (ja) 2019-11-07
EP3605013A4 (en) 2021-01-13
US10871380B2 (en) 2020-12-22
EP3605013B1 (en) 2023-10-18
CN110418937A (zh) 2019-11-05

Similar Documents

Publication Publication Date Title
WO2018173907A1 (ja) 車両制御装置
US8150144B2 (en) Method for determining the rotational axis and the center of rotation of a vehicle wheel
EP3243037B1 (en) Rolling virtual wheel spindle calibration
JP5281664B2 (ja) 車線逸脱警報装置および車線逸脱警報システム
US8448342B2 (en) Unit of at least two target arrangements for optically measuring an axle and device for optically measuring an axle
US20220172487A1 (en) Method for detecting an operating capability of an environment sensor, control unit and vehicle
US8638452B2 (en) Measuring head for a chassis measuring system, chassis measuring system and method for determining the position parameters of measuring heads of a chassis measuring system
CN101676686B (zh) 确定布置在车辆中的照相机的位置和取向的方法
US20120182426A1 (en) Vehicle-surroundings monitoring device
CN102915532A (zh) 确定车辆视觉***外部参数的方法以及车辆视觉***
CN103930312A (zh) 包括用于共同处理信号的融合滤波器的传感器***
KR102183224B1 (ko) 차량 레이더 오차 보정 시스템 및 그 방법
US20150336510A1 (en) Lane Departure Judgment Apparatus, Lane Departure Warning Apparatus and Vehicle Control System Using the Same
JP2003505681A (ja) 自動車のホイールジオメトリ及び/又は軸線ジオメトリを規定する装置
GB2396005A (en) Calibrating an image sensor system in an automotive vehicle
US20200339134A1 (en) Method and apparatus for dynamic yaw rate bias estimation
CN110290997A (zh) 车辆控制装置
WO2019021876A1 (ja) 車載カメラのキャリブレーション装置及び方法
US11173914B2 (en) Vehicle control apparatus and method
JP5561469B2 (ja) ヨーレート補正装置、及びその方法
JP6169270B2 (ja) 外部車両の走行状態を識別する方法及び装置
KR20140138635A (ko) 관성 센서 향상
JP2009014645A (ja) 車両用距離測定装置
JP6023025B2 (ja) 舵角補正方法、舵角補正装置、撮像装置、および舵角補正システム
JP6023030B2 (ja) 舵角補正方法、舵角補正装置、撮像装置、および舵角補正システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18772505

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019507606

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018772505

Country of ref document: EP

Effective date: 20191023