JP6023030B2 - Rudder angle correction method, rudder angle correction device, imaging device, and rudder angle correction system - Google Patents

Rudder angle correction method, rudder angle correction device, imaging device, and rudder angle correction system Download PDF

Info

Publication number
JP6023030B2
JP6023030B2 JP2013200569A JP2013200569A JP6023030B2 JP 6023030 B2 JP6023030 B2 JP 6023030B2 JP 2013200569 A JP2013200569 A JP 2013200569A JP 2013200569 A JP2013200569 A JP 2013200569A JP 6023030 B2 JP6023030 B2 JP 6023030B2
Authority
JP
Japan
Prior art keywords
steering angle
images
symmetry
steering
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013200569A
Other languages
Japanese (ja)
Other versions
JP2015069245A (en
Inventor
貴裕 岡田
貴裕 岡田
隆一 澤田
隆一 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2013200569A priority Critical patent/JP6023030B2/en
Priority to US14/915,620 priority patent/US9862417B2/en
Priority to PCT/JP2014/004437 priority patent/WO2015029443A1/en
Priority to EP14839821.7A priority patent/EP3040254B1/en
Publication of JP2015069245A publication Critical patent/JP2015069245A/en
Application granted granted Critical
Publication of JP6023030B2 publication Critical patent/JP6023030B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Steering Control In Accordance With Driving Conditions (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Description

本発明は、移動体のステアリングの舵角を補正する舵角補正方法、舵角補正装置、撮像装置、および舵角補正システムに関する。   The present invention relates to a steering angle correction method, a steering angle correction device, an imaging device, and a steering angle correction system for correcting a steering angle of a moving body.

従来、自動車等の移動体に車載カメラを設置して、撮像した移動体の周辺画像に運転を支援するための指標となる画像を重畳して表示する技術が知られている。このような指標を周辺画像に重畳するために、舵角センサ等により検出されるステアリング舵角が用いられる。検出されるステアリング舵角は、経年使用やステアリング交換等により実際の舵角とずれが生じる場合があるため、ステアリング舵角の中立点補正が行われる(例えば、特許文献1)。   2. Description of the Related Art Conventionally, a technique is known in which an in-vehicle camera is installed on a moving body such as an automobile, and an image serving as an index for supporting driving is superimposed on a captured peripheral image of the moving body. In order to superimpose such an index on the peripheral image, a steering angle detected by a steering angle sensor or the like is used. Since the detected steering angle may deviate from the actual steering angle due to use over time, steering replacement, or the like, neutral point correction of the steering angle is performed (for example, Patent Document 1).

特許第4323402号明細書Japanese Patent No. 4323402

しかしながら、従来技術では、ステアリング舵角を補正するためにステアリングを最大舵角又は最小舵角に正確に操作する必要がある。このように、ステアリング舵角の中立点補正には特別な工程が必要であり、操作が煩雑となっていた。   However, in the prior art, it is necessary to accurately operate the steering to the maximum steering angle or the minimum steering angle in order to correct the steering angle. Thus, a special process is required for the neutral point correction of the steering angle, and the operation is complicated.

かかる事情に鑑みてなされた本発明の目的は、操作の煩雑さを低減して舵角を補正可能な舵角補正方法、舵角補正装置、撮像装置、および舵角補正システムを提供することにある。   An object of the present invention made in view of such circumstances is to provide a rudder angle correction method, a rudder angle correction device, an imaging device, and a rudder angle correction system that can correct the rudder angle by reducing the complexity of operation. is there.

上記課題を解決するために本発明に係る舵角補正方法は、
左右の操舵輪を同時にそれぞれ撮像した一組の画像と、前記一組の画像の撮像時における移動体のステアリング舵角と、を対応付けて取得するステップと、
前記一組の画像上の前記左右の操舵輪の対称度を算出するステップと、
前記対称度に基づいて前記ステアリング舵角を補正する補正値を算出するステップとを含む
ことを特徴とする。
In order to solve the above problem, the rudder angle correction method according to the present invention,
Obtaining a set of images obtained by simultaneously imaging the left and right steered wheels and the steering angle of the moving body at the time of capturing the set of images in association with each other;
Calculating the degree of symmetry of the left and right steered wheels on the set of images;
Calculating a correction value for correcting the steering angle based on the degree of symmetry.

また、本発明に係る舵角補正方法は、
異なるステアリング舵角において前記一組の画像を取得するステップを含み、
前記補正値を算出するステップでは、ステアリング舵角に対する前記対称度の分布に基づいて前記補正値を算出する
ことが好ましい。
Further, the rudder angle correction method according to the present invention includes:
Acquiring the set of images at different steering angles;
In the step of calculating the correction value, the correction value is preferably calculated based on the distribution of the symmetry with respect to the steering angle.

また、本発明に係る舵角補正方法は、
前記一組の画像上の前記左右の操舵輪を楕円検出により抽出するステップを含み、
前記対称度を算出するステップでは、検出する楕円のパラメータを用いて前記対称度を算出する
ことが好ましい。
Further, the rudder angle correction method according to the present invention includes:
Extracting the left and right steered wheels on the set of images by ellipse detection;
In the step of calculating the degree of symmetry, it is preferable to calculate the degree of symmetry using a parameter of an ellipse to be detected.

また、本発明に係る舵角補正方法は、
前記対称度を算出するステップでは、楕円の短辺および傾きの少なくとも一方を示すパラメータに対して、他のパラメータよりも大きな重付けを施して前記対称度を算出する
ことが好ましい。
Further, the rudder angle correction method according to the present invention includes:
In the step of calculating the degree of symmetry, it is preferable to calculate the degree of symmetry by assigning more weight to the parameter indicating at least one of the short side and the inclination of the ellipse than the other parameters.

また、本発明に係る舵角補正方法は、
前記対称度を算出するステップでは、前記一組の画像に基づく画像マッチングによる相関度を用いて前記対称度を算出する
ことが好ましい。
Further, the rudder angle correction method according to the present invention includes:
In the step of calculating the degree of symmetry, the degree of symmetry is preferably calculated using a degree of correlation based on image matching based on the set of images.

また、本発明に係る舵角補正装置は、
左右の操舵輪を同時にそれぞれ撮像した一組の画像と、前記一組の画像の撮像時における移動体のステアリング舵角と、を対応付けて取得する取得部と、
前記一組の画像上の前記左右の操舵輪の対称度に基づいて前記舵角を補正する補正値を算出する演算部とを備える
ことを特徴とする。
In addition, the rudder angle correction device according to the present invention,
An acquisition unit that acquires a set of images obtained by simultaneously imaging the left and right steering wheels, and a steering angle of a moving body when the set of images is captured;
And an arithmetic unit that calculates a correction value for correcting the steering angle based on the symmetry of the left and right steering wheels on the set of images.

また、本発明に係る撮像装置は、
左右の操舵輪を同時にそれぞれ撮像した一組の画像および前記一組の画像の撮像時における移動体のステアリング舵角を対応付けて取得する取得部と、前記一組の画像上の前記左右の操舵輪の対称度に基づいて前記舵角を補正する補正値を算出する演算部とを備える舵角補正装置と、
前記一組の画像を生成する第1の撮像部と、
前記移動体の周辺領域を撮像した周辺画像を生成する第2の撮像部と、
前記周辺画像上に、前記補正値に基づいて指標を重畳する画像重畳部とを備える
ことを特徴とする。
In addition, an imaging apparatus according to the present invention includes:
An acquisition unit that acquires a set of images obtained by simultaneously imaging the left and right steering wheels and a steering angle of the moving body at the time of imaging the set of images, and the left and right steering on the set of images A rudder angle correction device comprising a calculation unit that calculates a correction value for correcting the rudder angle based on the degree of symmetry of the wheel;
A first imaging unit that generates the set of images;
A second imaging unit that generates a peripheral image obtained by imaging a peripheral region of the moving body;
An image superimposing unit that superimposes an index on the peripheral image based on the correction value is provided.

また、本発明に係る舵角補正システムは、
左右の操舵輪を同時にそれぞれ撮像した一組の画像を生成する第1の撮像部と、
前記一組の画像と、前記一組の画像の撮像時における移動体のステアリング舵角と、を対応付けて取得する取得部と、
前記一組の画像上の前記左右の操舵輪の対称度に基づいて前記舵角を補正する補正値を算出する演算部と、
前記移動体の周辺領域を撮像した周辺画像を生成する第2の撮像部と、
前記周辺画像上に、前記補正値に基づいて指標を重畳する画像重畳部と、
前記指標を重畳した周辺画像を表示する表示部とを備える
ことを特徴とする。
Further, the rudder angle correction system according to the present invention,
A first imaging unit that generates a set of images obtained by simultaneously imaging the left and right steering wheels;
An acquisition unit that associates and acquires the set of images and the steering angle of the moving body at the time of capturing the set of images;
An arithmetic unit that calculates a correction value for correcting the steering angle based on the symmetry of the left and right steering wheels on the set of images;
A second imaging unit that generates a peripheral image obtained by imaging a peripheral region of the moving body;
An image superimposing unit that superimposes an index on the peripheral image based on the correction value;
And a display unit that displays a peripheral image on which the index is superimposed.

本発明に係る舵角補正方法、舵角補正装置、撮像装置、および舵角補正システムによれば、操作の煩雑さを低減して舵角を補正可能となる。   According to the rudder angle correction method, the rudder angle correction device, the imaging device, and the rudder angle correction system according to the present invention, it becomes possible to correct the rudder angle while reducing the complexity of the operation.

本発明の第1の実施形態に係る舵角補正システムの構成要素の配置を示す概略図である。It is the schematic which shows arrangement | positioning of the component of the steering angle correction system which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る舵角補正システムの概略構成を示す機能ブロック図である。It is a functional block diagram which shows schematic structure of the steering angle correction system which concerns on the 1st Embodiment of this invention. 図1の右サイドカメラの撮像画像の例を示す図である。It is a figure which shows the example of the captured image of the right side camera of FIG. 図1の左サイドカメラの撮像画像の例を示す図である。It is a figure which shows the example of the captured image of the left side camera of FIG. 図1の表示部に表示される画像の例を示す図である。It is a figure which shows the example of the image displayed on the display part of FIG. 図3のサイドカメラの撮像画像に対し楕円検出を施した例を示す図である。It is a figure which shows the example which performed the ellipse detection with respect to the captured image of the side camera of FIG. 本発明の第1の実施形態に係る対称度の確率分布を示す図である。It is a figure which shows the probability distribution of the symmetry degree which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る舵角補正システムの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the steering angle correction system which concerns on the 1st Embodiment of this invention. 本発明の第2の実施形態に係る対称度の確率分布を示す図である。It is a figure which shows the probability distribution of the symmetry degree which concerns on the 2nd Embodiment of this invention. 本発明の変形例による舵角補正システムの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the rudder angle correction | amendment system by the modification of this invention.

以下、本発明の実施形態について、図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1の実施形態)
はじめに、本発明の第1の実施形態に係る舵角補正システムについて説明する。図1は、第1の実施形態に係る舵角補正システムAの構成要素の移動体10における配置を示す概略図である。移動体10は、例えば車両である。
(First embodiment)
First, the steering angle correction system according to the first embodiment of the present invention will be described. FIG. 1 is a schematic diagram illustrating an arrangement of components of a steering angle correction system A according to the first embodiment on a moving body 10. The moving body 10 is a vehicle, for example.

舵角補正システムAの2つのサイドカメラ11は、例えば、操舵輪15の側面中心から、鉛直上向きに対して、移動体10の側方からみて移動体10の後方に向かって45°(図1(b)参照)、後方からみて移動体10の左右外側に向かって15°となる位置に、移動体10の左右対称に配置される(図1(c)参照)。また、2つのサイドカメラ11は、例えば左右のサイドミラー16にそれぞれ配置される。左右のサイドカメラ11は、移動体10の左右の操舵輪15の一方を含む移動体10の周辺領域をそれぞれ撮像可能である。舵角補正システムAのリアカメラ12は、移動体10の後方周辺領域を撮像可能となるように配置される。舵角補正システムAの舵角補正装置13は、移動体10の任意の位置に配置される。舵角補正システムAの表示部14は、運転席から視認可能な位置に配置され、サイドカメラ11およびリアカメラ12が出力する画像を表示する。   The two side cameras 11 of the steering angle correction system A are, for example, 45 ° from the center of the side surface of the steering wheel 15 toward the rear of the moving body 10 when viewed from the side of the moving body 10 with respect to the vertically upward direction (FIG. 1). (See (b)), the mobile body 10 is arranged symmetrically at a position of 15 ° toward the left and right outer sides of the mobile body 10 when viewed from the rear (see FIG. 1C). Further, the two side cameras 11 are respectively disposed on the left and right side mirrors 16, for example. The left and right side cameras 11 can respectively image a peripheral area of the moving body 10 including one of the left and right steering wheels 15 of the moving body 10. The rear camera 12 of the steering angle correction system A is arranged so as to be able to image the rear peripheral region of the moving body 10. The steering angle correction device 13 of the steering angle correction system A is disposed at an arbitrary position of the moving body 10. The display unit 14 of the steering angle correction system A is disposed at a position that can be viewed from the driver's seat, and displays images output from the side camera 11 and the rear camera 12.

次に、舵角補正システムAの構成および機能を、図2を用いて詳細に説明する。図2に示すように、舵角補正システムAは、サイドカメラ11、リアカメラ12、舵角補正装置13、および表示部14を備える。   Next, the configuration and function of the steering angle correction system A will be described in detail with reference to FIG. As shown in FIG. 2, the steering angle correction system A includes a side camera 11, a rear camera 12, a steering angle correction device 13, and a display unit 14.

サイドカメラ11は、光学系17と、サイドカメラ撮像部(第1の撮像部)18と、舵角判断部19と、サイドカメラ制御部20と、を備える。   The side camera 11 includes an optical system 17, a side camera imaging unit (first imaging unit) 18, a steering angle determination unit 19, and a side camera control unit 20.

光学系17は、複数のレンズを含んで構成され、被写体像を結像させる。   The optical system 17 includes a plurality of lenses and forms a subject image.

サイドカメラ撮像部18は、例えばCMOS撮像素子であって、光学系17によって結像する被写体像を撮像した画像を生成する。前述のように、左右のサイドカメラ11は、左右の操舵輪15の一方を含む移動体10の周辺領域をそれぞれ撮像可能となるように配置され、生成される画像は、多様な操舵輪舵角θである操舵輪15の画像を含み得る。ここで、操舵輪舵角θとは、操舵輪15の操舵可能範囲における舵角中立点を0°とする操舵輪15の切れ角である。本実施形態では、ステアリングの右方向回転により操舵輪舵角θが増加する。操舵輪舵角θRは、舵角中立点からステアリングの右方向回転により正の値、舵角中立点からステアリングの左方向回転により負の値となる。 The side camera imaging unit 18 is, for example, a CMOS imaging device, and generates an image obtained by imaging a subject image formed by the optical system 17. As described above, the left and right side cameras 11 are arranged so as to be able to image the peripheral area of the moving body 10 including one of the left and right steering wheels 15, and the generated images have various steering wheel steering angles. may include an image of the steering wheel 15 is theta R. Here, the steered wheel steering angle θ R is a turning angle of the steered wheel 15 where the steering angle neutral point in the steerable range of the steered wheel 15 is 0 °. In the present embodiment, the steering wheel steering angle theta R is increased by the right rotation of the steering. The steered wheel steering angle θR becomes a positive value when the steering wheel rotates in the right direction from the steering angle neutral point, and becomes a negative value when the steering wheel rotates in the left direction from the steering angle neutral point.

ここで、サイドカメラ11が生成する画像について説明する。画像上の操舵輪15は、操舵輪舵角θによって形状が異なる。図3は、異なる操舵輪舵角θにおいて右サイドカメラ11が生成する画像の例を示し、図3(a)はθ=0°、図3(b)はθ=10°、図3(c)はθ=20°、図3(d)はθ=30°、図3(e)はθ=−30°である。画像上の操舵輪15の側面は、操舵輪15の舵角中立点(θ=0°)において楕円形状である(図3(a)参照)。操舵輪舵角θが0°から増加すると、操舵輪15の側面の一部が移動体10の影に隠れ、楕円の一部が欠けた形状となる(図3(b)−(d)参照)。一方、操舵輪舵角θが0°から減少すると、ある舵角以下で操舵輪15の側面は画像上に写らなくなる(図3(e)参照)。 Here, an image generated by the side camera 11 will be described. Steering wheel on the image 15, different shapes by the steering wheel steering angle theta R. 3 shows examples of images generated by the right side camera 11 at different steering wheel steering angles θ R , FIG. 3A shows θ R = 0 °, FIG. 3B shows θ R = 10 °, 3 (c) is θ R = 20 °, FIG. 3 (d) is θ R = 30 °, and FIG. 3 (e) is θ R = −30 °. The side surface of the steered wheel 15 on the image has an elliptical shape at the steering angle neutral point (θ R = 0 °) of the steered wheel 15 (see FIG. 3A). When the steered wheel steering angle θ R increases from 0 °, a part of the side surface of the steered wheel 15 is hidden by the shadow of the moving body 10 and a part of the ellipse is missing (FIGS. 3B to 3D). reference). On the other hand, the steering wheel steering angle theta R decreases from 0 °, the side surface of the steering wheel 15 below a certain steering angle is not reflected to a on the image (see FIG. 3 (e)).

左サイドカメラ11の生成する画像上の操舵輪15も同様に、操舵輪舵角θによって形状が異なる。図4は、異なる操舵輪舵角θにおいて右サイドカメラ11が生成する画像の例を示し、図4(a)はθ=0°、図4(b)はθ=−30°、図4(c)はθ=30°である。操舵輪舵角θが0°から減少すると、操舵輪15の側面の一部が移動体10の影に隠れ、楕円の一部が欠けた形状となる(図4(b)参照)。一方、操舵輪舵角θが0°から増加すると、ある舵角以上で操舵輪15の側面は画像上に写らなくなる(図4(c)参照)。操舵輪舵角θ=0°であるとき、左右のサイドカメラ11がそれぞれ生成する画像上の操舵輪15は左右対称となる(図3(a)及び図4(a)参照)。 Similarly steered wheels 15 on the image generated by the left side camera 11, different shapes by the steering wheel steering angle theta R. FIG. 4 shows an example of an image generated by the right side camera 11 at different steering wheel steering angles θ R , FIG. 4A shows θ R = 0 °, FIG. 4B shows θ R = −30 °, FIG. 4C shows θ R = 30 °. The steering wheel steering angle theta R decreases from 0 °, a portion of the side surface of the steering wheel 15 hidden behind the moving body 10, part of an ellipse is missing shape (see Figure 4 (b)). On the other hand, the steering wheel steering angle theta R increases from 0 °, the side surface of the steering wheel 15 at a certain steering angle or more is not reflected to a on the image (see FIG. 4 (c)). When the steering wheel steering angle θ R = 0 °, the steering wheels 15 on the images generated by the left and right side cameras 11 are symmetric (see FIGS. 3A and 4A).

舵角判断部19は(図2参照)、例えばCAN等の車載ネットワーク100を介して、サイドカメラ撮像部18による撮像時に舵角センサが検出するステアリング舵角θを取得する。ステアリング舵角θは、ステアリングの操舵可能範囲における舵角中立点を0°とするステアリングの切れ角である。本実施形態では、ステアリングの右方向回転により舵角センサが検出するステアリング舵角θが増加する。一般に、舵角センサが検出するステアリング舵角θおよび操舵輪舵角θは、一対一の対応関係を有する。 The steering angle determination unit 19 (see FIG. 2) obtains the steering angle θ m detected by the steering angle sensor during imaging by the side camera imaging unit 18 via the in-vehicle network 100 such as CAN, for example. The steering angle θ m is a steering angle at which the steering angle neutral point in the steering possible range is 0 °. In the present embodiment, the steering angle θ m detected by the steering angle sensor is increased by the clockwise rotation of the steering. In general, the steering angle θ m and the steering wheel angle θ R detected by the steering angle sensor have a one-to-one correspondence.

サイドカメラ制御部20は、サイドカメラ11の各部位の動作を制御する。例えば、サイドカメラ制御部20は、左右のサイドカメラ11の各サイドカメラ撮像部18に、周期的に、例えば30fpsで、左右の操舵輪15を同時にそれぞれ撮像した一組の画像を生成させる。また、サイドカメラ制御部20は、車載ネットワーク100を介して情報の送受信を行う。   The side camera control unit 20 controls the operation of each part of the side camera 11. For example, the side camera control unit 20 causes each side camera imaging unit 18 of the left and right side cameras 11 to generate a set of images obtained by imaging the left and right steering wheels 15 at 30 fps periodically. The side camera control unit 20 transmits and receives information via the in-vehicle network 100.

リアカメラ12は、光学系21と、リアカメラ撮像部(第2の撮像部)22と、リアカメラ記憶部23と、画像重畳部24と、リアカメラ制御部25と、を備える。   The rear camera 12 includes an optical system 21, a rear camera imaging unit (second imaging unit) 22, a rear camera storage unit 23, an image superimposing unit 24, and a rear camera control unit 25.

光学系21は、サイドカメラ11の光学系17と同様に、複数のレンズを含んで構成され、被写体像を結像させる。   Similar to the optical system 17 of the side camera 11, the optical system 21 includes a plurality of lenses and forms a subject image.

リアカメラ撮像部22は、サイドカメラ撮像部18と同様に、光学系21によって結像する周辺画像を撮像する。   Similar to the side camera imaging unit 18, the rear camera imaging unit 22 captures a peripheral image formed by the optical system 21.

リアカメラ記憶部23は、舵角補正装置13から取得する補正値θを記憶する。補正値θの詳細については後述する。 Rear camera storage unit 23 stores the correction value theta a to obtain the steering angle correction device 13. It will be described in detail later correction value theta a.

画像重畳部24は、車載ネットワーク100を介して、舵角センサが検出するステアリング舵角θを取得する。また、画像重畳部24は、舵角センサが検出するステアリング舵角θを用いて、リアカメラ撮像部22が撮像した周辺画像上の所定位置に運転支援のための指標を重畳する。好適には、画像重畳部24は、リアカメラ記憶部23が記憶する補正値θにより補正した舵角センサが検出するステアリング舵角θを用いて、運転支援のための指標を重畳する。 The image superimposing unit 24 acquires the steering angle θ m detected by the steering angle sensor via the in-vehicle network 100. Further, the image superimposing unit 24 superimposes an index for driving assistance on a predetermined position on the peripheral image captured by the rear camera imaging unit 22 by using the steering angle θ m detected by the steering angle sensor. Preferably, the image superimposing unit 24 uses the steering angle theta m the steering angle sensor rear camera storage unit 23 is corrected by the correction value theta a to be stored is detected, it superimposes an indicator for the driving support.

運転支援のための指標30とは、例えば図5に示すように、車幅延長線31および距離目安線32である。車幅延長線31は、後進時の移動体10の両端の通過する軌跡であり、ステアリングの舵角に応じて形状および表示位置が異なる。距離目安線32は、現在の移動体10から所定の距離、例えば1mおよび3mの距離を示す。運転者は、指標30によって移動体10の後進時の予測進行方向を認識可能となる。   The indicator 30 for driving assistance is, for example, a vehicle width extension line 31 and a distance guide line 32 as shown in FIG. The vehicle width extension line 31 is a trajectory passing through both ends of the moving body 10 during reverse travel, and the shape and the display position differ depending on the steering angle of the steering. The distance reference line 32 indicates a predetermined distance from the current moving body 10, for example, a distance of 1 m and 3 m. The driver can recognize the predicted traveling direction when the mobile object 10 moves backward by the index 30.

リアカメラ制御部25(図2参照)は、リアカメラ12の各部位の動作を制御する。例えば、リアカメラ制御部25は、舵角補正装置13から補正値θを受信してリアカメラ記憶部23に記憶させる。また、リアカメラ制御部25は、車載ネットワーク100を介して情報の送受信を行う。 The rear camera control unit 25 (see FIG. 2) controls the operation of each part of the rear camera 12. For example, the rear camera control unit 25, is stored in the rear camera storage unit 23 receives the correction value theta a from the steering angle correction device 13. The rear camera control unit 25 transmits and receives information via the in-vehicle network 100.

舵角補正装置13は、舵角センサが検出するステアリング舵角θをステアリングの実際の舵角θと一致させるように補正するための補正値θを算出する。補正値θの算出の詳細については後述する。舵角補正装置13は、取得部26と、補正装置記憶部27と、抽出部28と、演算部29と、を備える。 The steering angle correction device 13 calculates a correction value θ a for correcting the steering angle θ m detected by the steering angle sensor so as to coincide with the actual steering angle θ t of the steering. It will be described in detail later calculation of the correction value theta a. The steering angle correction device 13 includes an acquisition unit 26, a correction device storage unit 27, an extraction unit 28, and a calculation unit 29.

取得部26は、例えば車載ネットワーク100を介して、左右のサイドカメラ11から、左右の操舵輪15を同時にそれぞれ撮像した一組の画像および画像撮像時に舵角センサが検出したステアリング舵角θを対応付けて取得する。 For example, the acquisition unit 26 obtains a set of images obtained by simultaneously imaging the left and right steering wheels 15 from the left and right side cameras 11 via the in-vehicle network 100 and the steering angle θ m detected by the steering angle sensor at the time of imaging. Acquired in association.

補正装置記憶部27は、演算部29が算出する一組の画像上の左右の操舵輪15の対称度を、画像撮像時に舵角センサが検出したステアリング舵角θと対応付けて蓄積する。対称度の詳細については後述する。また、補正装置記憶部27は、演算部29が算出する補正値θを記憶する。 The correction device storage unit 27 stores the symmetry of the left and right steering wheels 15 on the set of images calculated by the calculation unit 29 in association with the steering angle θ m detected by the steering angle sensor at the time of image capturing. Details of the degree of symmetry will be described later. The correction device storage unit 27 stores the correction value theta a to the arithmetic unit 29 calculates.

抽出部28は、取得部26が取得した一組の画像上の操舵輪15を抽出する。例えば、抽出部28は、エッジ検出および楕円検出(近似)により画像上の操舵輪15を抽出する。エッジ検出には、例えばcannyフィルタを用いて、画像上のエッジ部分を検出する。楕円検出には、例えばHough変換を用いて、操舵輪15を近似した楕円形状およびその楕円パラメータを算出する。楕円パラメータは、楕円の中心座標(x,y)、長辺の長さa、短辺の長さb、および画像上の水平軸と楕円の長軸とがなす傾きφである。   The extraction unit 28 extracts the steering wheel 15 on the set of images acquired by the acquisition unit 26. For example, the extraction unit 28 extracts the steering wheel 15 on the image by edge detection and ellipse detection (approximation). For edge detection, for example, an edge part on an image is detected using a canny filter. For ellipse detection, for example, Hough transform is used to calculate an ellipse shape approximating the steered wheel 15 and its ellipse parameters. The ellipse parameters are the center coordinates (x, y) of the ellipse, the length a of the long side, the length b of the short side, and the inclination φ formed by the horizontal axis on the image and the long axis of the ellipse.

好適には、抽出部28は、操舵輪15が含まれ得る画像上の所定領域において、画像上の操舵輪15を抽出する。操舵輪15が含まれ得る画像上の所定領域は、例えばサイドカメラ11の取付け角度のばらつきを考慮して予め決定してもよく、抽出部28が任意の方法により自動的に決定してもよい。   Preferably, the extraction unit 28 extracts the steering wheel 15 on the image in a predetermined region on the image where the steering wheel 15 can be included. The predetermined area on the image in which the steering wheel 15 can be included may be determined in advance in consideration of, for example, variations in the mounting angle of the side camera 11, or may be automatically determined by the extraction unit 28 by an arbitrary method. .

ここで、楕円検出により検出される楕円について説明する。図6は、異なる操舵輪舵角θにおいて右サイドカメラ11が生成する画像について検出する楕円(図6太線)の例を示し、図6(a)はθ=0°、図6(b)はθ=10°、図6(c)はθ=20°、図6(d)はθ=30°である。また、図6は、操舵輪15のホイール部分について楕円検出を施す例を示すが、例えば操舵輪15のタイヤ部分について楕円検出を施してもよい。θが10°以上の例では、操舵輪15のホイール部分は楕円の一部が欠けた形状であったが(図3(b)−(d)参照)、楕円検出により操舵輪15のホイール部分に適合する楕円が検出される(図6(b)−(d)参照)。 Here, an ellipse detected by ellipse detection will be described. FIG. 6 shows an example of an ellipse (thick line in FIG. 6) detected for images generated by the right side camera 11 at different steering wheel steering angles θ R , and FIG. 6A shows θ R = 0 ° and FIG. ) Is θ R = 10 °, FIG. 6C is θ R = 20 °, and FIG. 6D is θ R = 30 °. Further, FIG. 6 shows an example in which ellipse detection is performed on the wheel portion of the steered wheel 15, but for example, ellipse detection may be performed on the tire portion of the steered wheel 15. The θ example R is not less than 10 °, but the wheel portion of the steering wheel 15 is a shape with the cut part of an ellipse (FIG. 3 (b) - (d) refer), the wheel of the steering wheel 15 by the elliptical detection An ellipse that fits the part is detected (see FIGS. 6B to 6D).

検出される楕円は、撮像時の操舵輪舵角θによって形状が異なる。詳細には、検出される楕円は、操舵輪舵角θが0°から増加すると、画像上の水平軸と楕円の長軸とがなす傾きφが減少し、短辺の長さbが増加する。一方、操舵輪舵角θが増加しても、他の楕円パラメータ、すなわち中心座標(x,y)および長辺の長さaの変化が比較的小さい(図6参照)。また、異なる操舵輪舵角θにおいて左サイドカメラ11が生成する画像について検出する楕円も同様に、操舵輪舵角θが0°から減少すると、画像上の水平軸と楕円の長軸とがなす傾きφが減少し、短辺の長さbが増加する。 Oval to be detected, a different shape by the steering wheel steering angle theta R at the time of imaging. In particular, the ellipse is detected, the steering wheel steering angle theta R increases from 0 °, the inclination φ decreases formed by the long axis of the horizontal axis and the ellipse on the image, the short side length b is increased To do. On the other hand, even if the steering wheel steering angle theta R is increased, the other ellipse parameter, i.e. the center coordinates (x, y) and the change in length a of the long side is relatively small (see FIG. 6). Similarly, the ellipse detected for images generated by the left side camera 11 at different steering wheel steering angles θ R is similar to the horizontal axis on the image and the major axis of the ellipse when the steering wheel steering angle θ R decreases from 0 °. Is reduced, and the length b of the short side is increased.

演算部29(図2参照)は、一組の画像上の左右の操舵輪15の対称度を算出する。対称度は、一組の画像上の左右の操舵輪15の形状の左右対称性の度合いを示す指標である。例えば、本実施形態において、対称度は、画像マッチングの相関度である。演算部29は、抽出部28が検出した一組の楕円画像のうち一方を左右反転させて画像マッチングを行い、画像マッチングの相関度を対称度として算出する。また、演算部29は、算出した対称度(相関度)と、対称度の算出に用いた一組の画像の撮像時に舵角センサが検出したステアリング舵角θとを対応づけたデータを、補正装置記憶部27に記憶させる。 The computing unit 29 (see FIG. 2) calculates the degree of symmetry of the left and right steered wheels 15 on a set of images. The degree of symmetry is an index indicating the degree of left-right symmetry of the shape of the left and right steering wheels 15 on a set of images. For example, in the present embodiment, the degree of symmetry is the degree of correlation of image matching. The computing unit 29 performs image matching by horizontally inverting one of the set of elliptic images detected by the extracting unit 28, and calculates the degree of correlation of image matching as the degree of symmetry. Further, the calculation unit 29 associates the calculated degree of symmetry (correlation degree) with the steering rudder angle θ m detected by the rudder angle sensor at the time of capturing a set of images used to calculate the degree of symmetry. The data is stored in the correction device storage unit 27.

また、演算部29は、補正装置記憶部27に記憶させた複数のデータに基づいて、舵角センサが検出したステアリング舵角θに対する対称度(相関度)の確率分布を算出する(図7参照)。確率分布には、任意の確率分布モデルを用いることができる。また、演算部29は、算出した確率分布のピーク位置におけるステアリング舵角θを算出する。好適には、演算部29は、確率分布を算出するのに十分なデータが蓄積されたときに、確率分布のピーク位置におけるステアリング舵角θを算出する。例えば、演算部29は、蓄積したデータの数が所定の閾値th以上であって、且つ、算出した確率分布の分散σが所定の閾値th未満であるときに、確率分布のピーク位置におけるステアリング舵角θを算出するように構成してもよい。 Further, the calculation unit 29 calculates a probability distribution of symmetry (correlation degree) with respect to the steering angle θ m detected by the steering angle sensor based on a plurality of data stored in the correction device storage unit 27 (FIG. 7). reference). Any probability distribution model can be used for the probability distribution. Further, the calculation unit 29 calculates the steering angle θ p at the peak position of the calculated probability distribution. Preferably, the calculation unit 29 calculates the steering angle θ p at the peak position of the probability distribution when data sufficient to calculate the probability distribution is accumulated. For example, the arithmetic unit 29 determines the peak position of the probability distribution when the number of accumulated data is equal to or greater than the predetermined threshold th 1 and the calculated variance σ 2 of the probability distribution is less than the predetermined threshold th 2. it may be configured to calculate the steering angle theta p in.

ここで、演算部29が算出する確率分布のピーク位置におけるステアリング舵角θは、ステアリングの実際の舵角θが0°であるときに舵角センサが検出するステアリング舵角θと推定される。舵角センサが検出するステアリング舵角θとステアリングの実際の舵角θとの間にずれ(以下、検出ずれという)が存在する場合には、ステアリングの実際の舵角θが0°であるときに舵角センサが検出するステアリング舵角θは、舵角センサの検出ずれに等しい。演算部29は、確率分布のピーク位置におけるステアリング舵角θを舵角センサの検出ずれΔθとして決定する。 Here, the steering angle θ p at the peak position of the probability distribution calculated by the calculation unit 29 is estimated as the steering angle θ m detected by the steering angle sensor when the actual steering angle θ t of the steering is 0 °. Is done. When there is a deviation (hereinafter referred to as detection deviation) between the steering angle θ m detected by the steering angle sensor and the actual steering angle θ t of the steering, the actual steering angle θ t of the steering is 0 °. The steering angle θ m detected by the rudder angle sensor is equal to the detection deviation of the rudder angle sensor. Computing section 29 determines the steering angle theta p at the peak position of the probability distribution as a detection deviation Δθ of the steering angle sensor.

演算部29は、決定した検出ずれΔθの絶対値が所定の閾値th以上であるとき、すなわち、舵角センサが検出するステアリング舵角θとステアリングの実際の舵角θとのずれが大きいとき、検出ずれΔθを補正値θとして補正装置記憶部27に記憶させる。あるいは、演算部29は、補正装置記憶部27が既に補正値θを記憶している場合には、検出ずれΔθから補正値θを減算した値の絶対値が所定の閾値th以上であるとき、検出ずれΔθを新たな補正値θとして更新し、補正装置記憶部27に記憶させる。演算部29は、車載ネットワーク100を介して、他の構成要素に補正値θを送信する。 When the absolute value of the determined detection deviation Δθ is equal to or greater than the predetermined threshold th 3 , that is, the arithmetic unit 29, that is, the deviation between the steering angle θ m detected by the steering angle sensor and the actual steering angle θ t of the steering is detected. big time, is stored in the correction device the storage unit 27 the detected deviation Δθ as a correction value theta a. Alternatively, the arithmetic unit 29, when the correcting device storage unit 27 has already stored the correction values theta a is the absolute value of a value obtained by subtracting the correction value theta a from detecting deviation Δθ predetermined threshold th 3 or more At some time, the detection deviation Δθ is updated as a new correction value θa and is stored in the correction device storage unit 27. Calculating section 29, via the in-vehicle network 100, and transmits the correction value theta a to other components.

次に、第1の実施形態に係る舵角補正システムAが実行する補正値算出処理について、図8のフローチャートを用いて説明する。本処理は、例えば、移動体10が走行を開始したときに実行される。   Next, correction value calculation processing executed by the steering angle correction system A according to the first embodiment will be described with reference to the flowchart of FIG. This process is executed, for example, when the moving body 10 starts traveling.

はじめに、左右のサイドカメラ11のサイドカメラ撮像部18は、左右の操舵輪15の一方を含む移動体10の周辺領域をそれぞれ同時に撮像した一組の画像を生成する(ステップS100)。   First, the side camera imaging unit 18 of the left and right side cameras 11 generates a set of images obtained by simultaneously imaging the peripheral area of the moving body 10 including one of the left and right steering wheels 15 (step S100).

次に、舵角判断部19は、車載ネットワーク100を介して、ステップS100の一組の画像の撮像と同時に舵角センサが検出したステアリング舵角θを取得する(ステップS101)。 Next, the steering angle determination unit 19, via the in-vehicle network 100, the steering angle sensor acquires a steering angle theta m detected at the same time as the imaging of a set of images in step S100 (step S101).

次に、舵角補正装置13の取得部26は、例えば車載ネットワーク100を介して、ステップS100の一組の画像およびステップS101の舵角センサが検出したステアリング舵角θを対応付けて取得する(ステップS102)。 Next, the acquisition unit 26 of the steering angle correction device 13 acquires the set of images in step S100 and the steering angle θ m detected by the steering angle sensor in step S101 in association with each other via the in-vehicle network 100, for example. (Step S102).

次に、抽出部28は、ステップS102の一組の画像に対してエッジ検出を施す(ステップS103)。   Next, the extraction unit 28 performs edge detection on the set of images in step S102 (step S103).

続いて、抽出部28は、ステップS103においてエッジ検出を施した一組の画像に対して楕円検出を施す(ステップS104)。   Subsequently, the extraction unit 28 performs ellipse detection on the set of images subjected to edge detection in step S103 (step S104).

次に、演算部29は、ステップS102の一組の画像上の左右の操舵輪15の対称度を算出する(ステップS105)。例えば、演算部29は、ステップS104において楕円検出を施した一組の画像のうち一方を左右反転させて画像マッチングを行ない、画像マッチングの相関度を対称度として算出する。   Next, the computing unit 29 calculates the degree of symmetry of the left and right steered wheels 15 on the set of images in step S102 (step S105). For example, the calculating unit 29 performs image matching by horizontally inverting one of the pair of images subjected to ellipse detection in step S104, and calculates the degree of correlation of image matching as the degree of symmetry.

続いて、演算部29は、ステップS105で算出した対称度と、ステップS102において取得した舵角センサが検出したステアリング舵角θとを対応づけたデータを、補正装置記憶部27に記憶させる(ステップS106)。 Subsequently, the calculation unit 29 stores data in which the degree of symmetry calculated in step S105 and the steering angle θ m detected by the steering angle sensor acquired in step S102 are associated with each other in the correction device storage unit 27 ( Step S106).

続いて、演算部29は、ステップS106において補正装置記憶部27に記憶させたデータに基づいて、舵角センサが検出するステアリング舵角θに対する対称度(相関度)の確率分布を算出する(ステップS107)。 Subsequently, the calculation unit 29 calculates a probability distribution of symmetry (correlation degree) with respect to the steering angle θ m detected by the steering angle sensor, based on the data stored in the correction device storage unit 27 in step S106 ( Step S107).

続いて、演算部29は、確率分布を算出するのに十分なデータが蓄積されたか否かを判定する(ステップS108)。例えば、演算部29は、補正装置記憶部27に記憶させたデータの数が所定の閾値th以上であって、且つ、ステップS107で算出した確率分布の分散σが所定の閾値th未満であるときに、十分なデータが蓄積されたと判定する。十分なデータが蓄積されたとき(ステップS108−Yes)、ステップS109に進む。一方、十分なデータが蓄積されていないとき(ステップS108−No)、ステップS100に戻って処理を反復し、データを蓄積する。 Subsequently, the arithmetic unit 29 determines whether or not sufficient data has been accumulated to calculate the probability distribution (step S108). For example, the calculation unit 29 has the number of data stored in the correction device storage unit 27 equal to or greater than a predetermined threshold th 1 and the variance σ 2 of the probability distribution calculated in step S107 is less than the predetermined threshold th 2 When it is, it is determined that sufficient data has been accumulated. When sufficient data is accumulated (step S108-Yes), the process proceeds to step S109. On the other hand, when sufficient data has not been accumulated (No in step S108), the process returns to step S100 to repeat the process and accumulate data.

ステップS108において、十分なデータが蓄積されたとき(ステップS108−Yes)、演算部29は、ステップS107で算出した確率分布のピーク位置におけるステアリング舵角θを算出する(ステップS109)。 In step S108, when enough data has been accumulated (step S108-Yes), the arithmetic unit 29 calculates the steering angle theta p at the peak position of the probability distribution calculated in step S107 (step S109).

続いて、演算部29は、ステップS109において算出した確率分布のピーク位置におけるステアリング舵角θを検出ずれΔθとして決定する。さらに、演算部29は、検出ずれΔθの絶対値が、所定の閾値th以上であるか否かを判定する(ステップS110)。検出ずれΔθの絶対値が閾値th以上であるとき(ステップS110−Yes)、ステップS111に進む。一方、検出ずれΔθの絶対値が閾値th未満であるとき(ステップS110−No)、処理を終了する。 Subsequently, the arithmetic unit 29 determines the steering angle theta p at the peak position of the probability distribution calculated in step S109 as detected deviation [Delta] [theta]. Further, the calculation unit 29 determines whether or not the absolute value of the detection deviation Δθ is greater than or equal to a predetermined threshold th 3 (step S110). When the absolute value of the detected deviation Δθ is the threshold value th 3 or more (step S110-Yes), the process proceeds to step S111. On the other hand, when the absolute value of the detected displacement Δθ is smaller than the threshold th 3 (step S110-No), the process ends.

ステップS110において、検出ずれΔθの絶対値が閾値th以上であるとき(ステップS110−Yes)、演算部29は、検出ずれΔθを補正値θとして補正装置記憶部27に記憶させる(ステップS111)。 In step S110, when the absolute value of the detected deviation Δθ is the threshold value th 3 or more (step S110-Yes), the arithmetic unit 29, is stored in the correction device the storage unit 27 the detected deviation Δθ as a correction value theta a (step S111 ).

このように、第1の実施形態の舵角補正システムによれば、左右の操舵輪15を同時にそれぞれ撮像した一組の画像の対称度に基づいて、補正値θを算出する。このため、例えば移動体10の走行中に舵角センサが検出するステアリング舵角θの補正を自動的に行うことができ、操作者による操作の煩雑さを低減できる。また、例えば初期状態など、舵角センサに測定ずれΔθが発生する前の初期状態における情報を必要としないため、舵角補正システムを移動体10に搭載する時期によらず補正が可能である。 Thus, according to the steering angle correction system of the first embodiment, each right and left steered wheels 15 simultaneously based on the symmetry of the set of images captured, the correction value is calculated theta a. Thus, for example, correction of the steering angle theta m which the steering angle sensor during the travel of the moving body 10 is detected can be performed automatically, thereby reducing the complexity of the operation by the operator. Further, for example, information in the initial state before the measurement deviation Δθ occurs in the rudder angle sensor, such as the initial state, is not required, so that the correction can be performed regardless of the time when the rudder angle correction system is mounted on the moving body 10.

また、第1の実施形態の舵角補正システムによれば、舵角センサが検出するステアリング舵角θに対する対称度の確率分布に基づいて補正値θを算出するため、ステアリングの実際の舵角θが0°であるときに舵角センサが検出するステアリング舵角θを精度良く推定でき、補正値θの算出精度を向上できる。また、舵角センサが検出するステアリング舵角θの測定誤差の影響を低減し、補正値θの算出精度を向上できる。 Further, according to the steering angle correction system of the first embodiment, for calculating the correction value theta a based on the probability distribution of the symmetry with respect to the steering angle theta m which the steering angle sensor detects the actual rudder steering The steering angle θ m detected by the steering angle sensor when the angle θ t is 0 ° can be estimated with high accuracy, and the calculation accuracy of the correction value θ a can be improved. Further, to reduce the influence of the measurement error of the steering angle theta m which the steering angle sensor detects, it can improve the calculation accuracy of the correction value theta a.

また、第1の実施形態の舵角補正システムによれば、舵角センサが検出するステアリング舵角θに対する対称度の確率分布を算出するのに十分なデータが蓄積されているとき、確率分布のピーク位置におけるステアリング舵角θを算出し、θを用いて補正値θを算出する。このため、例えばデータ数が少ない場合や分散が大きい場合等、ピークを正しく検出できていない場合に補正値θの算出・更新を抑制し、補正値θの安定性を向上できる。 Further, according to the steering angle correction system of the first embodiment, when sufficient data is stored to calculate the probability distribution of symmetry with respect to the steering angle θ m detected by the steering angle sensor, the probability distribution The steering angle θ p at the peak position is calculated, and the correction value θ a is calculated using θ p . Thus, for example, when the case and distributed the number of data is small is large, etc., to suppress the calculation and update of the correction value theta a to if not correctly detect the peak, it is possible to improve the stability of the correction value theta a.

また、第1の実施形態の舵角補正システムによれば、舵角センサが検出するステアリング舵角θとステアリングの実際の舵角θとの間のずれ(検出ずれ)Δθの絶対値が閾値th以上であるときに、検出ずれΔθを補正値θとして記憶する。このため、舵角センサが検出するステアリング舵角θの測定誤差等の影響で生じる微小なずれによる補正値θの算出・更新を抑制し、補正値θの算出精度を向上できる。 Further, according to the steering angle correction system of the first embodiment, the absolute value of the deviation (detection deviation) Δθ between the steering angle θ m detected by the steering angle sensor and the actual steering angle θ t of the steering is obtained. When the threshold is th 3 or more, the detection deviation Δθ is stored as a correction value θa. Therefore, to suppress the calculation and update of the correction value theta a by slight shift caused by the influence of the measurement error of the steering angle theta m which the steering angle sensor detects, it can improve the calculation accuracy of the correction value theta a.

また、第1の実施形態の舵角補正システムによれば、一組の画像に対してエッジ検出を施すため、移動体10の走行中において、例えば天気や外の明るさ等の環境の変化による測定画像への影響を低減し、画像マッチングによる相関度の算出精度を向上できる。   Further, according to the rudder angle correction system of the first embodiment, edge detection is performed on a set of images, and therefore, for example, due to changes in the environment such as weather and outside brightness while the mobile body 10 is traveling. The influence on the measurement image can be reduced, and the calculation accuracy of the correlation degree by image matching can be improved.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。第2の実施形態に係る舵角補正システムAの構成は第1の実施形態と同様であるが、舵角補正装置13が行う処理が異なる。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. The configuration of the steering angle correction system A according to the second embodiment is the same as that of the first embodiment, but the processing performed by the steering angle correction device 13 is different.

第2の実施形態に係る舵角補正装置13は、第1の実施形態と同様に、取得部26と、補正装置記憶部27と、抽出部28と、演算部29と、を備える。取得部26および補正装置記憶部27については、第1の実施形態と同様であるため、説明は省略する。   The steering angle correction device 13 according to the second embodiment includes an acquisition unit 26, a correction device storage unit 27, an extraction unit 28, and a calculation unit 29, as in the first embodiment. Since the acquisition unit 26 and the correction device storage unit 27 are the same as those in the first embodiment, description thereof is omitted.

抽出部28は、第1の実施形態と同様に、一組の画像上の操舵輪15を抽出して楕円パラメータを算出する。第2の実施形態に係る抽出部28は、一組の画像のうち一方を左右反転させて、両画像上の操舵輪15を抽出し、楕円パラメータをそれぞれ算出する。   Similar to the first embodiment, the extraction unit 28 extracts the steered wheels 15 on a set of images and calculates an elliptic parameter. The extraction unit 28 according to the second embodiment inverts one of the pair of images left and right, extracts the steering wheel 15 on both images, and calculates the ellipse parameters.

演算部29は、第1の実施形態と同様に、一組の画像上の左右の操舵輪15の対称度を算出する。ここで、第2の実施形態に係る演算部29は、抽出部28が楕円検出により算出した楕円パラメータを用いて、対称度を算出する。詳細には、演算部29は、抽出部28が左右反転させた一方の画像から検出した操舵輪15の楕円パラメータにより定まる5次元パラメータ空間上の点αを算出する。同様に、演算部29は、他方の画像から検出した操舵輪15の楕円パラメータにより定まる5次元パラメータ空間上の点βを算出する。パラメータ空間上の2点間の距離dは、d=|α−β|により算出される。ここで、両画像からそれぞれ検出した楕円形状の相関が高いとき、各楕円パラメータは互いに近い値をとるため、距離dは小さな値となる。一方、2つの楕円形状の相関が小さいとき、各楕円パラメータは互いに異なる値をとるため、距離dは大きな値となる。演算部29は、楕円パラメータを用いて算出するパラメータ空間上の距離dを対称度として算出する。このとき、一般に、距離dの値が小さいほど対称性が高くなる。   The computing unit 29 calculates the symmetry degree of the left and right steered wheels 15 on a set of images, as in the first embodiment. Here, the calculation unit 29 according to the second embodiment calculates the degree of symmetry using the ellipse parameter calculated by the extraction unit 28 through ellipse detection. Specifically, the calculation unit 29 calculates a point α on the five-dimensional parameter space determined by the elliptic parameter of the steered wheel 15 detected from one of the images reversed left and right by the extraction unit 28. Similarly, the calculation unit 29 calculates a point β on the five-dimensional parameter space determined by the elliptic parameter of the steering wheel 15 detected from the other image. The distance d between two points on the parameter space is calculated by d = | α−β |. Here, when the correlation between the ellipse shapes detected from both images is high, the ellipse parameters are close to each other, and therefore the distance d is a small value. On the other hand, when the correlation between the two ellipse shapes is small, the ellipse parameters have different values, and thus the distance d is a large value. The calculation unit 29 calculates the distance d on the parameter space calculated using the ellipse parameter as the degree of symmetry. At this time, generally, the smaller the value of the distance d, the higher the symmetry.

好適には、演算部29は、複数の楕円パラメータに対して重付けを行った値を用いて対称度を算出する。前述のように、検出される楕円は、操舵輪舵角θによって異なる形状となる(図6参照)。ここで、操舵輪舵角θの変化に対し、楕円の傾きφおよび短辺の長さbの変化量が大きく、他の楕円パラメータ、すなわち中心座標と長辺の長さは変化量が小さい。すなわち、楕円の傾きφおよび短辺の長さbは、操舵輪舵角θの変化に対し感度が高い。例えば、楕円パラメータのうち傾きφおよび短辺の長さbの少なくとも一方に、他のパラメータ、すなわち座標(x,y)および長辺の長さaより大きな重付けを行ってパラメータ空間上の点aおよび点bを決定し、2点間の距離dを対称度として算出する。 Preferably, the calculation unit 29 calculates the degree of symmetry using a value obtained by weighting a plurality of ellipse parameters. As described above, the detected ellipse has a different shape depending on the steering wheel steering angle θ R (see FIG. 6). Here, with respect to change in the steering wheel steering angle theta R, the amount of change in the length b of the ellipse inclination φ and short large, other ellipse parameters, that is, the length of the center coordinates and the long side is small variation . That is, the length b of the ellipse inclination φ and short is sensitive to changes in the steering wheel steering angle theta R. For example, at least one of the inclination φ and the short side length b among the ellipse parameters is weighted more than the other parameters, that is, the coordinates (x, y) and the long side length a, and points on the parameter space a and b are determined, and the distance d between the two points is calculated as the symmetry.

また、演算部29は、第1の実施形態と同様に、対称度(距離d)の確率分布を算出し、算出した確率分布のピーク位置におけるステアリング舵角θに基づいて補正値θを算出する。本実施形態において、楕円パラメータを用いて算出するパラメータ空間上の距離dを対称度として用いるため、確率分布のピークは下向きにあらわれる(図9参照)。 Similarly to the first embodiment, the calculation unit 29 calculates a probability distribution of symmetry (distance d), and calculates the correction value θ a based on the steering angle θ p at the peak position of the calculated probability distribution. calculate. In this embodiment, since the distance d on the parameter space calculated using the ellipse parameter is used as the degree of symmetry, the peak of the probability distribution appears downward (see FIG. 9).

このように、第2の実施形態の舵角補正システムによれば、一組の画像のうち一方を左右反転させて検出した楕円のパラメータに基づいて算出するパラメータ空間上の距離dを、一組の画像上の左右の操舵輪15の対称度として算出する。このため、画像マッチングにより対称度を算出する第1の実施形態と比較して処理負担を低減できる。また、複数の楕円パラメータのうち、操舵輪舵角θの変化に対し感度が高い楕円パラメータに大きな重付けをして対称度を算出することにより、対称度の算出精度を向上し、補正値θの算出精度を向上できる。 Thus, according to the steering angle correction system of the second embodiment, the distance d on the parameter space calculated based on the ellipse parameters detected by inverting one of the images in the left-right direction is set to one set. Is calculated as the degree of symmetry of the left and right steering wheels 15 on the image. For this reason, the processing load can be reduced as compared with the first embodiment in which the degree of symmetry is calculated by image matching. Further, among the plurality of ellipse parameters by calculating the symmetry with a large weighting in the sensitive ellipse parameters to changes in the steering wheel steering angle theta R, improved symmetry calculation accuracy of the correction value It can be improved calculation accuracy of theta a.

(変形例)
次に、本発明の実施形態の変形例に係る舵角補正システムについて説明する。変形例に係る舵角補正システムAの構成は第1の実施形態と同様であるが、対称度の確率分布を算出せず、一組の画像が左右対称であるときに補正値θを算出する点が異なる。
(Modification)
Next, a steering angle correction system according to a modification of the embodiment of the present invention will be described. Although construction of the steering angle correction system A according to the modified example is the same as the first embodiment, without calculating the probability distribution of symmetry, calculates a correction value theta a when a set of images are symmetric The point to do is different.

変形例に係る舵角補正装置13は、第1の実施形態と同様に、取得部26と、補正装置記憶部27と、抽出部28と、演算部29と、を備える。取得部26および抽出部28については、第1の実施形態と同様であるため、説明は省略する。   As in the first embodiment, the steering angle correction device 13 according to the modification includes an acquisition unit 26, a correction device storage unit 27, an extraction unit 28, and a calculation unit 29. Since the acquisition unit 26 and the extraction unit 28 are the same as those in the first embodiment, description thereof will be omitted.

補正装置記憶部27は、演算部29が算出する補正値θを記憶する。 Correction apparatus storage section 27 stores a correction value theta a to the arithmetic unit 29 calculates.

演算部29は、第1の実施形態と同様に、一組の画像上の左右の操舵輪15の対称度を算出する。変形例において、画像マッチングによる相関度又は楕円パラメータ空間上の2点間距離dの何れを対称度として採用してもよい。以下においては、一組の画像のうち一方を左右反転させた画像と他方の画像との画像マッチングによる相関度を算出し、対称度として採用する例について説明する。   The computing unit 29 calculates the symmetry degree of the left and right steered wheels 15 on a set of images, as in the first embodiment. In the modification, either the correlation degree by image matching or the distance d between two points on the ellipse parameter space may be adopted as the symmetry degree. Hereinafter, an example will be described in which the degree of correlation by image matching between an image obtained by horizontally inverting one of a set of images and the other image is calculated and adopted as the degree of symmetry.

演算部29は、算出した対称度(相関度)に基づいて、一組の画像上の左右の操舵輪15の形状が左右対称か否かを判定する。左右対称か否かの判定は、例えば、対称度である相関度が所定の閾値th以上であるとき、形状が左右対称と判定する。演算部29は、操舵輪15の形状が左右対称と判定するとき、対称度の算出に用いた一組の画像の撮像時に舵角センサが検出したステアリング舵角θを、舵角センサが検出するステアリング舵角θとステアリングの実際の舵角θとの間のずれ(検出ずれ)Δθとして決定する。また、演算部29は、第1の実施形態と同様に、決定した検出ずれΔθの絶対値が所定の閾値th以上であるとき、検出ずれΔθを補正値θとして補正装置記憶部27に記憶する。 The computing unit 29 determines whether or not the shapes of the left and right steered wheels 15 on the set of images are bilaterally symmetric based on the calculated degree of symmetry (correlation degree). For example, when the correlation degree, which is the degree of symmetry, is greater than or equal to a predetermined threshold th 4 , the shape is determined to be bilaterally symmetric. Calculating section 29, when the shape of the steering wheel 15 is determined to symmetrical the steering angle theta m which the steering angle sensor detects the time of imaging of a set of images used for the calculation of symmetry, the steering angle sensor is detected This is determined as a deviation (detection deviation) Δθ between the steering angle θ m to be operated and the actual steering angle θ t of the steering. The arithmetic unit 29, as in the first embodiment, when the absolute value of the determined detection deviation Δθ is the predetermined threshold th 3 or more, the correction apparatus storing unit 27 detects deviation Δθ as a correction value theta a Remember.

次に、変形例に係る舵角補正システムAが実行する補正値算出処理について、図10のフローチャートを用いて説明する。   Next, correction value calculation processing executed by the steering angle correction system A according to the modification will be described with reference to the flowchart of FIG.

はじめに、左右のサイドカメラ11のサイドカメラ撮像部18は、左右の操舵輪15の一方を含む移動体10の周辺領域をそれぞれ同時に撮像した一組の画像を生成する(ステップS200)。   First, the side camera imaging unit 18 of the left and right side cameras 11 generates a set of images obtained by simultaneously imaging the peripheral area of the moving body 10 including one of the left and right steering wheels 15 (step S200).

次に、舵角判断部19は、車載ネットワーク100を介して、ステップS200の一組の画像の撮像と同時に舵角センサが検出したステアリング舵角θを取得する(ステップS201)。 Next, the steering angle determination unit 19, via the in-vehicle network 100, the steering angle sensor acquires a steering angle theta m detected at the same time as the imaging of a set of images in step S200 (step S201).

次に、舵角補正装置13の取得部26は、例えば車載ネットワーク100を介して、ステップS200の一組の画像およびステップS201の舵角センサが検出したステアリング舵角θを対応付けて取得する(ステップS202)。 Next, the acquisition unit 26 of the steering angle correction device 13 acquires the set of images in step S200 and the steering angle θ m detected by the steering angle sensor in step S201 in association with each other via the in-vehicle network 100, for example. (Step S202).

次に、抽出部28は、ステップS202の一組の画像に対してエッジ検出を施す(ステップS203)。   Next, the extraction unit 28 performs edge detection on the set of images in step S202 (step S203).

続いて、抽出部28は、ステップS203においてエッジ検出を施した一組の画像に対して楕円検出を施す(ステップS204)。   Subsequently, the extraction unit 28 performs ellipse detection on the set of images for which edge detection has been performed in step S203 (step S204).

次に、演算部29は、ステップS202の一組の画像上の左右の操舵輪15の対称度を算出する(ステップS205)。例えば、演算部29は、ステップS204において楕円検出を施した一組の画像のうち一方を左右反転させて画像マッチングを行ない、画像マッチングの相関度を対称度として算出する。   Next, the computing unit 29 calculates the degree of symmetry of the left and right steering wheels 15 on the set of images in step S202 (step S205). For example, the computing unit 29 performs image matching by inverting one of the pair of images subjected to ellipse detection in step S204, and calculates the degree of correlation of image matching as the degree of symmetry.

続いて、演算部29は、ステップS202の一組の画像上の左右の操舵輪15の形状が左右対称か否かを判定する(ステップS206)。例えば、演算部29は、対称度である相関度が所定の閾値th以上であるとき、形状が左右対称と判定する。形状が左右対称と判定するとき(ステップS206−Yes)、ステップS207に進む。一方、形状が左右対称でないと判定するとき(ステップS206−No)、ステップS200に戻る。 Subsequently, the calculation unit 29 determines whether or not the shapes of the left and right steering wheels 15 on the set of images in Step S202 are bilaterally symmetric (Step S206). For example, the arithmetic unit 29 determines, when the degree of correlation is symmetric degree is a predetermined threshold value th 4 or more, shape symmetrical. When it is determined that the shape is symmetrical (step S206—Yes), the process proceeds to step S207. On the other hand, when it is determined that the shape is not symmetrical (No in step S206), the process returns to step S200.

ステップS206において、形状が左右対称と判定するとき(ステップS206−Yes)、演算部29は、ステップS202の舵角センサが検出したステアリング舵角θを検出ずれΔθとして決定し、検出ずれΔθの絶対値が、所定の閾値th以上であるか否かを判定する(ステップS207)。検出ずれΔθの絶対値が閾値th以上であるとき(ステップS207−Yes)、ステップS208に進む。一方、検出ずれΔθの絶対値が閾値th未満であるとき(ステップS207−No)、処理を終了する。 In step S206, when the shape is determined to symmetric (step S206-Yes), the arithmetic unit 29 determines the steering angle theta m which the steering angle sensor has detected in step S202 as detected shift [Delta] [theta], the detected shift [Delta] [theta] It is determined whether or not the absolute value is greater than or equal to a predetermined threshold th 3 (step S207). When the absolute value of the detected deviation Δθ is the threshold value th 3 or more (step S207-Yes), the process proceeds to step S208. On the other hand, when the absolute value of the detected displacement Δθ is smaller than the threshold th 3 (step S207-No), the process ends.

ステップS207において、検出ずれΔθの絶対値が閾値th以上であるとき(ステップS207−Yes)、演算部29は、検出ずれΔθを補正値θとして補正装置記憶部27に記憶させる(ステップS208)。 In step S207, when the absolute value of the detected deviation Δθ is the threshold value th 3 or more (step S207-Yes), the arithmetic unit 29, is stored in the correction device the storage unit 27 the detected deviation Δθ as a correction value theta a (step S208 ).

このように、変形例の舵角補正システムによれば、一組の画像と舵角センサが検出するステアリング舵角θとを対応付けて取得するたび、算出する対称度に基づいて両画像上の左右の操舵輪15の形状が左右対称か否かを判定する。そして、形状が左右対称と判定するとき、補正値θを算出する。このため、第1の実施形態と異なり、舵角センサが検出するステアリング舵角θと対称度とを対応付けたデータを補正装置記憶部27に蓄積する必要がなく、記憶するデータ容量を低減できる。 Thus, according to the steering angle correction system of the modified example, each time a set of images and the steering rudder angle θ m detected by the rudder angle sensor are acquired in association with each other, both images are calculated based on the calculated symmetry. It is determined whether or not the shapes of the left and right steering wheels 15 are symmetrical. When the shape is determined to symmetrical calculates a correction value theta a. For this reason, unlike the first embodiment, there is no need to store data in which the steering angle θ m detected by the steering angle sensor is associated with the degree of symmetry in the correction device storage unit 27, and the data capacity to be stored is reduced. it can.

本発明を諸図面や実施形態に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。   Although the present invention has been described based on the drawings and embodiments, it should be noted that those skilled in the art can easily make various changes and modifications based on the present disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present invention.

例えば、舵角補正システムにおける各構成要素は、分割および再配置が可能である。例えば、舵角補正装置13を撮像装置に包含させてもよい。また例えば、舵角補正システムは、運転者を支援するナビゲーション装置を更に備え、ナビゲーション装置が舵角補正装置13の演算部29や、リアカメラ12の画像重畳部24を備える構成であってもよい。   For example, each component in the steering angle correction system can be divided and rearranged. For example, the steering angle correction device 13 may be included in the imaging device. Further, for example, the steering angle correction system may further include a navigation device that supports the driver, and the navigation device may include a calculation unit 29 of the steering angle correction device 13 and an image superimposing unit 24 of the rear camera 12. .

また、上述の実施形態において、舵角補正装置13の取得部26は、車載ネットワーク100を介してサイドカメラ11の画像を取得するが、専用線を介して取得するように構成してもよい。   In the above-described embodiment, the acquisition unit 26 of the rudder angle correction device 13 acquires the image of the side camera 11 via the in-vehicle network 100, but may be configured to acquire via a dedicated line.

また、抽出部28が検出した楕円が正しく操舵輪15を抽出しているか否かを判別する構成を備えてもよい。例えば、画像上の検出した楕円内において、エッジ検出を施す前の画像の色情報を用いて操舵輪15を抽出しているか否か判断することが考えられる。このようにして、画像上の操舵輪15の抽出精度を向上して対称度の算出精度を向上することにより、補正値θの算出精度を向上できる。 Moreover, you may provide the structure which discriminate | determines whether the ellipse detected by the extraction part 28 has extracted the steering wheel 15 correctly. For example, it is conceivable to determine whether or not the steered wheels 15 are extracted using the color information of the image before performing edge detection within the detected ellipse on the image. In this manner, by improving the accuracy of calculation of the degree of symmetry to improve the extraction accuracy of the steering wheel 15 on the image can be improved calculation accuracy of the correction value theta a.

また、上述の実施形態において、舵角補正装置13は、算出した補正値θを補正装置記憶部27に記憶させるが、ステアリング舵角センサに補正値θを送信し、ステアリング舵角センサの出力値を補正するように構成してもよい。この場合、画像重畳部24は、車載ネットワーク100を介して取得するステアリング舵角を補正する必要がないため、処理負担を軽減できる。 In the above embodiment, the steering angle correction device 13 is to store the calculated correction value theta a in the correction unit storage unit 27, and transmits the correction value theta a to steering angle sensor, a steering angle sensor You may comprise so that an output value may be correct | amended. In this case, the image superimposing unit 24 does not need to correct the steering angle obtained via the in-vehicle network 100, and thus the processing burden can be reduced.

また、上述の実施形態において、画像重畳部24はリアカメラ12の撮像画像に指標30を重畳するが、例えば、移動体10の前方の周辺画像を撮像するフロントカメラの撮像画像に重畳するように構成してもよい。   In the above-described embodiment, the image superimposing unit 24 superimposes the index 30 on the captured image of the rear camera 12. For example, the image superimposing unit 24 superimposes the index 30 on the captured image of the front camera that captures the peripheral image in front of the moving body 10. It may be configured.

また、上述の実施形態において、画像マッチングによる相関度又は楕円パラメータに基づくパラメータ空間上の2点間距離を対称度として用いたが、一組の画像上の左右の操舵輪15の形状の対称性の度合いを示す指標であれば任意の指標を採用可能である。   Further, in the above-described embodiment, the distance between two points on the parameter space based on the degree of correlation by image matching or the elliptic parameter is used as the degree of symmetry. However, the symmetry of the shapes of the left and right steering wheels 15 on a set of images. Any index can be adopted as long as it is an index indicating the degree.

10 移動体
11 サイドカメラ
12 リアカメラ
13 舵角補正装置
14 表示部
15 操舵輪
16 サイドミラー
17 光学系
18 サイドカメラ撮像部
19 舵角判断部
20 サイドカメラ制御部
21 光学系
22 リアカメラ撮像部
23 リアカメラ記憶部
24 画像重畳部
25 リアカメラ制御部
26 取得部
27 補正装置記憶部
28 抽出部
29 演算部
30 指標
31 車幅延長線
32 距離目安線
100 車載ネットワーク
DESCRIPTION OF SYMBOLS 10 Moving body 11 Side camera 12 Rear camera 13 Steering angle correction apparatus 14 Display part 15 Steering wheel 16 Side mirror 17 Optical system 18 Side camera imaging part 19 Steering angle judgment part 20 Side camera control part 21 Optical system 22 Rear camera imaging part 23 Rear camera storage unit 24 Image superposition unit 25 Rear camera control unit 26 Acquisition unit 27 Correction device storage unit 28 Extraction unit 29 Calculation unit 30 Index 31 Vehicle width extension line 32 Distance reference line 100 In-vehicle network

Claims (8)

左右の操舵輪を同時にそれぞれ撮像した一組の画像と、前記一組の画像の撮像時における移動体のステアリング舵角と、を対応付けて取得するステップと、
前記一組の画像上の前記左右の操舵輪の対称度を算出するステップと、
前記対称度に基づいて前記ステアリング舵角を補正する補正値を算出するステップとを含む
ことを特徴とする舵角補正方法。
Obtaining a set of images obtained by simultaneously imaging the left and right steered wheels and the steering angle of the moving body at the time of capturing the set of images in association with each other;
Calculating the degree of symmetry of the left and right steered wheels on the set of images;
Calculating a correction value for correcting the steering angle based on the degree of symmetry. A method for correcting the steering angle.
請求項1に記載の舵角補正方法であって、
異なるステアリング舵角において前記一組の画像を取得するステップを含み、
前記補正値を算出するステップでは、ステアリング舵角に対する前記対称度の分布に基づいて前記補正値を算出する
ことを特徴とする舵角補正方法。
The rudder angle correction method according to claim 1,
Acquiring the set of images at different steering angles;
In the step of calculating the correction value, the correction value is calculated based on the distribution of the symmetry with respect to the steering angle.
請求項1又は2に記載の舵角補正方法であって、
前記一組の画像上の前記左右の操舵輪を楕円検出により抽出するステップを含み、
前記対称度を算出するステップでは、検出する楕円のパラメータを用いて前記対称度を算出する
ことを特徴とする舵角補正方法。
The rudder angle correction method according to claim 1 or 2,
Extracting the left and right steered wheels on the set of images by ellipse detection;
In the step of calculating the degree of symmetry, the degree of symmetry is calculated using a parameter of an ellipse to be detected.
請求項3に記載の舵角補正方法であって、
前記対称度を算出するステップでは、楕円の短辺および傾きの少なくとも一方を示すパラメータに対して、他のパラメータよりも大きな重付けを施して前記対称度を算出する
ことを特徴とする舵角補正方法。
The rudder angle correction method according to claim 3,
In the step of calculating the degree of symmetry, the parameter indicating at least one of the short side and the inclination of the ellipse is weighted more than the other parameters to calculate the degree of symmetry, and the rudder angle correction is characterized in that Method.
請求項1又は2に記載の舵角補正方法であって、
前記対称度を算出するステップでは、前記一組の画像に基づく画像マッチングによる相関度を用いて前記対称度を算出する
ことを特徴とする舵角補正方法。
The rudder angle correction method according to claim 1 or 2,
In the step of calculating the degree of symmetry, the degree of symmetry is calculated using a degree of correlation based on image matching based on the set of images.
左右の操舵輪を同時にそれぞれ撮像した一組の画像と、前記一組の画像の撮像時における移動体のステアリング舵角と、を対応付けて取得する取得部と、
前記一組の画像上の前記左右の操舵輪の対称度に基づいて前記舵角を補正する補正値を算出する演算部とを備える
ことを特徴とする舵角補正装置。
An acquisition unit that acquires a set of images obtained by simultaneously imaging the left and right steering wheels, and a steering angle of a moving body when the set of images is captured;
A steering angle correction apparatus comprising: an arithmetic unit that calculates a correction value for correcting the steering angle based on a degree of symmetry between the left and right steering wheels on the set of images.
請求項6に記載の舵角補正装置と、
前記一組の画像を生成する第1の撮像部と、
前記移動体の周辺領域を撮像した周辺画像を生成する第2の撮像部と、
前記周辺画像上に、前記補正値に基づいて指標を重畳する画像重畳部とを備える
ことを特徴とする撮像装置。
A rudder angle correction device according to claim 6;
A first imaging unit that generates the set of images;
A second imaging unit that generates a peripheral image obtained by imaging a peripheral region of the moving body;
An imaging apparatus comprising: an image superimposing unit that superimposes an index on the peripheral image based on the correction value.
左右の操舵輪を同時にそれぞれ撮像した一組の画像を生成する第1の撮像部と、
前記一組の画像と、前記一組の画像の撮像時における移動体のステアリング舵角と、を対応付けて取得する取得部と、
前記一組の画像上の前記左右の操舵輪の対称度に基づいて前記舵角を補正する補正値を算出する演算部と、
前記移動体の周辺領域を撮像した周辺画像を生成する第2の撮像部と、
前記周辺画像上に、前記補正値に基づいて指標を重畳する画像重畳部と、
前記指標を重畳した周辺画像を表示する表示部とを備える
ことを特徴とする舵角補正システム。
A first imaging unit that generates a set of images obtained by simultaneously imaging the left and right steering wheels;
An acquisition unit that associates and acquires the set of images and the steering angle of the moving body at the time of capturing the set of images;
An arithmetic unit that calculates a correction value for correcting the steering angle based on the symmetry of the left and right steering wheels on the set of images;
A second imaging unit that generates a peripheral image obtained by imaging a peripheral region of the moving body;
An image superimposing unit that superimposes an index on the peripheral image based on the correction value;
A steering angle correction system comprising: a display unit that displays a peripheral image on which the index is superimposed.
JP2013200569A 2013-08-28 2013-09-26 Rudder angle correction method, rudder angle correction device, imaging device, and rudder angle correction system Active JP6023030B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013200569A JP6023030B2 (en) 2013-09-26 2013-09-26 Rudder angle correction method, rudder angle correction device, imaging device, and rudder angle correction system
US14/915,620 US9862417B2 (en) 2013-08-28 2014-08-28 Turning angle correction method, turning angle correction device, image-capturing device, and turning angle correction system
PCT/JP2014/004437 WO2015029443A1 (en) 2013-08-28 2014-08-28 Turning angle correction method, turning angle correction device, image-capturing device, and turning angle correction system
EP14839821.7A EP3040254B1 (en) 2013-08-28 2014-08-28 Turning angle correction method, turning angle correction device, image-capturing device, and turning angle correction system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013200569A JP6023030B2 (en) 2013-09-26 2013-09-26 Rudder angle correction method, rudder angle correction device, imaging device, and rudder angle correction system

Publications (2)

Publication Number Publication Date
JP2015069245A JP2015069245A (en) 2015-04-13
JP6023030B2 true JP6023030B2 (en) 2016-11-09

Family

ID=52835892

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013200569A Active JP6023030B2 (en) 2013-08-28 2013-09-26 Rudder angle correction method, rudder angle correction device, imaging device, and rudder angle correction system

Country Status (1)

Country Link
JP (1) JP6023030B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11173953B2 (en) * 2019-07-29 2021-11-16 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for calibrating a steering wheel neutral position
JP7234968B2 (en) 2020-02-17 2023-03-08 トヨタ自動車株式会社 steering device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0613301B2 (en) * 1983-07-06 1994-02-23 トヨタ自動車株式会社 Vehicle steering angle detector
JP4323402B2 (en) * 2000-01-14 2009-09-02 アイシン精機株式会社 Rudder angle correction device
JP2006208199A (en) * 2005-01-28 2006-08-10 Nissan Motor Co Ltd Steering angle detector
JP2012224248A (en) * 2011-04-20 2012-11-15 Isuzu Motors Ltd Steering control device

Also Published As

Publication number Publication date
JP2015069245A (en) 2015-04-13

Similar Documents

Publication Publication Date Title
WO2015029443A1 (en) Turning angle correction method, turning angle correction device, image-capturing device, and turning angle correction system
JP6350374B2 (en) Road surface detection device
JP5926080B2 (en) Traveling lane marking recognition device and program
EP2933790B1 (en) Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
US9202106B2 (en) Eyelid detection device
JP2016119570A (en) Vehicle periphery monitoring device
JP6377970B2 (en) Parallax image generation apparatus and parallax image generation method
CN110858405A (en) Attitude estimation method, device and system of vehicle-mounted camera and electronic equipment
JP4670528B2 (en) Imaging device deviation detection method, imaging device deviation correction method, and imaging device
JP2011065219A (en) Device for estimation of road curvature
JP2019191806A (en) Abnormality detection device and abnormality detection method
JP2020060899A (en) Calibration device for on-vehicle camera
JP6044084B2 (en) Moving object position and orientation estimation apparatus and method
JP5561469B2 (en) Yaw rate correction apparatus and method
JP6023030B2 (en) Rudder angle correction method, rudder angle correction device, imaging device, and rudder angle correction system
JP6407596B2 (en) Image processing apparatus and driving support system
JP4865096B1 (en) Lane departure warning control device
JP6023025B2 (en) Rudder angle correction method, rudder angle correction device, imaging device, and rudder angle correction system
JP2018136739A (en) Calibration device
US20200167906A1 (en) Imaging abnormality diagnosis device
JP2021193340A (en) Self-position estimation device
JP2019121030A (en) Camera deviation detection device, camera deviation detection method, and irregularity detection device
JP2008042759A (en) Image processing apparatus
JP4040620B2 (en) Vehicle periphery monitoring device
JP2011055342A (en) Imaging apparatus for vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161006

R150 Certificate of patent or registration of utility model

Ref document number: 6023030

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150