JP2019148548A - Range-finding device and estimation method of calibration parameter - Google Patents

Range-finding device and estimation method of calibration parameter Download PDF

Info

Publication number
JP2019148548A
JP2019148548A JP2018034510A JP2018034510A JP2019148548A JP 2019148548 A JP2019148548 A JP 2019148548A JP 2018034510 A JP2018034510 A JP 2018034510A JP 2018034510 A JP2018034510 A JP 2018034510A JP 2019148548 A JP2019148548 A JP 2019148548A
Authority
JP
Japan
Prior art keywords
calibration parameter
image
distance measuring
measuring device
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018034510A
Other languages
Japanese (ja)
Other versions
JP7099832B2 (en
Inventor
和寿 石丸
Kazuhisa Ishimaru
和寿 石丸
智之 大石
Tomoyuki Oishi
智之 大石
ホセイン テヘラニニキネジャド
Tehrani Niknejad Hossein
ホセイン テヘラニニキネジャド
隆史 西
Takashi Nishi
隆史 西
ユーチュエン シュー
Yuquan Xu
ユーチュエン シュー
誠一 三田
Seiichi Mita
誠一 三田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Toyota Gauken
Original Assignee
Denso Corp
Soken Inc
Toyota Gauken
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Soken Inc, Toyota Gauken filed Critical Denso Corp
Priority to JP2018034510A priority Critical patent/JP7099832B2/en
Publication of JP2019148548A publication Critical patent/JP2019148548A/en
Application granted granted Critical
Publication of JP7099832B2 publication Critical patent/JP7099832B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)

Abstract

To provide a technique capable of highly accurately calibrating an imaging apparatus in a range-finding device.SOLUTION: A range-finding device 100 includes an image acquisition part 30 which acquires a first image and a second image, a calibration parameter estimation part 40 which estimates a calibration parameter on the basis of the position of the corresponding point of a feature common to the first image and the second image, an image calibration part 60 which calibrates the first image and the second image on the basis of the estimated calibration parameter, and a distance calculation part 70 which calculates a distance up to an object by using the calibrated first image and second image. The calibration parameter estimation part 40 estimates the calibration parameter by repeatedly calculating and optimizing an evaluation value calculated from an evaluation function including a term showing a change amount before and after the update of the calibration parameter and a term showing a change amount before and after the update of the position of the corresponding point, while updating the calibration parameter and the position of the corresponding point.SELECTED DRAWING: Figure 1

Description

本開示は、測距装置および較正パラメータの推定方法に関する。   The present disclosure relates to a distance measuring apparatus and a calibration parameter estimation method.

近年、車両の自動運転制御において、複数の撮像装置を用いて対象物までの距離を測定する測距装置が用いられている。例えば、特許文献1には、2つの撮像装置によって撮像された2つの画像に基づき、カメラパラメータ(内部パラメータ、外部パラメータ、歪み係数)を較正(キャリブレーション)する技術が開示されている。   In recent years, in automatic driving control of a vehicle, a distance measuring device that uses a plurality of imaging devices to measure a distance to an object is used. For example, Patent Literature 1 discloses a technique for calibrating camera parameters (internal parameters, external parameters, distortion coefficients) based on two images captured by two imaging devices.

特開2012−75060号公報JP 2012-75060 A

車両の自動運転制御では、測距された距離は、車両の緊急ブレーキや車間距離の調整等に利用されるため、測定誤差は小さい方が好ましい。そのため、測距装置に備えられた撮像装置を精度良く較正することのできる技術が求められている。このような課題は、自動運転制御用の測距装置に限らず、他の用途に用いられる測距装置にも共通した課題である。   In the automatic driving control of the vehicle, the measured distance is used for emergency braking of the vehicle, adjustment of the inter-vehicle distance, and the like, so that it is preferable that the measurement error is small. Therefore, there is a need for a technique that can accurately calibrate the imaging device provided in the distance measuring device. Such a problem is not limited to a distance measuring device for automatic operation control, but is a problem common to distance measuring devices used for other purposes.

本開示は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。   This indication is made in order to solve at least one part of the above-mentioned subject, and can be realized as the following forms.

本開示の一形態によれば、測距装置(100)が提供される。この測距装置(100)は、第1撮像装置(10)によって対象物が撮像された第1画像と、第2撮像装置(20)によって前記対象物が撮像された第2画像とを取得する画像取得部(30)と;前記第1画像および第2画像を較正するための較正パラメータを、前記第1画像および前記第2画像に共通する特徴の対応点の位置に基づき推定する較正パラメータ推定部(40)と;推定された前記較正パラメータに基づき前記第1画像および前記第2画像を較正する画像較正部(60)と;較正された前記第1画像および前記第2画像を用いて前記対象物までの距離を算出する距離算出部(70)と;を備える。そして、前記較正パラメータ推定部(40)は、前記較正パラメータおよび前記対応点の位置を更新しながら、前記較正パラメータの更新前後の変化量を表す項と、前記対応点の位置の更新前後の変化量を表す項と、を含む評価関数から算出される評価値を、繰り返し算出して最適化することにより、前記較正パラメータの推定を行うことを特徴とする。   According to one form of the present disclosure, a distance measuring device (100) is provided. The distance measuring device (100) acquires a first image in which the object is imaged by the first imaging device (10) and a second image in which the object is imaged by the second imaging device (20). Calibration parameter estimation for estimating calibration parameters for calibrating the first image and the second image based on positions of corresponding points common to the first image and the second image; A unit (40); an image calibration unit (60) for calibrating the first image and the second image based on the estimated calibration parameter; and using the calibrated first image and the second image, A distance calculation unit (70) for calculating a distance to the object. The calibration parameter estimation unit (40) updates the calibration parameter and the position of the corresponding point while updating the calibration parameter and the position of the corresponding point before and after the update. The calibration parameter is estimated by repeatedly calculating and optimizing an evaluation value calculated from an evaluation function including a term representing a quantity.

この形態の制御装置によれば、較正パラメータだけではなく、第1画像および第2画像に共通する対応点の位置を更新しながら評価値を最適化して較正パラメータを推定するので、第1撮像装置および第2撮像装置によって撮像された画像を精度よく較正することができる。そのため、対象物までの距離を正確に測定することができる。   According to the control device of this aspect, the calibration parameter is estimated by optimizing the evaluation value while updating not only the calibration parameter but also the position of the corresponding point common to the first image and the second image. And the image imaged by the 2nd imaging device can be calibrated accurately. Therefore, the distance to the object can be accurately measured.

本開示は、測距装置以外の種々の形態で実現することも可能である。例えば、較正パラメータの推定方法や測距方法、それらの方法を実現するためのコンピュータプログラム、コンピュータプログラムを記録した一時的でない有形の記録媒体等の形態で実現できる。   The present disclosure can also be realized in various forms other than the distance measuring device. For example, it can be realized in the form of a calibration parameter estimation method, a distance measurement method, a computer program for realizing these methods, a non-temporary tangible recording medium in which the computer program is recorded, and the like.

測距装置のブロック図。The block diagram of a distance measuring device. 較正パラメータ推定処理のフローチャート。The flowchart of a calibration parameter estimation process. 比較例における回転パラメータ(ピッチ)の推定結果を示すグラフ。The graph which shows the estimation result of the rotation parameter (pitch) in a comparative example. 比較例における回転パラメータ(ロール)の推定結果を示すグラフ。The graph which shows the estimation result of the rotation parameter (roll) in a comparative example. 比較例における回転パラメータ(ヨー)の推定結果を示すグラフ。The graph which shows the estimation result of the rotation parameter (yaw) in a comparative example. 実施形態における回転パラメータ(ピッチ)の推定結果を示すグラフ。The graph which shows the estimation result of the rotation parameter (pitch) in embodiment. 実施形態における回転パラメータ(ロール)の推定結果を示すグラフ。The graph which shows the estimation result of the rotation parameter (roll) in embodiment. 実施形態における回転パラメータ(ヨー)の推定結果を示すグラフ。The graph which shows the estimation result of the rotation parameter (yaw) in embodiment.

A.第1実施形態:
A1.装置構成:
図1に示すように、本開示の第1実施形態における測距装置100は、画像取得部30と、較正パラメータ推定部40と、較正パラメータ記憶部50と、画像較正部60と、距離算出部70とを備える。測距装置100には、第1撮像装置10および第2撮像装置20が接続されている。測距装置100は、車両に搭載され、緊急ブレーキや車間距離の調整といった自動運転制御に用いられる。
A. First embodiment:
A1. Device configuration:
As illustrated in FIG. 1, the distance measuring device 100 according to the first embodiment of the present disclosure includes an image acquisition unit 30, a calibration parameter estimation unit 40, a calibration parameter storage unit 50, an image calibration unit 60, and a distance calculation unit. 70. A first imaging device 10 and a second imaging device 20 are connected to the distance measuring device 100. The distance measuring device 100 is mounted on a vehicle and used for automatic driving control such as emergency braking and adjustment of an inter-vehicle distance.

測距装置100は、CPUやRAM、不揮発性メモリ等を備えるコンピュータによって構成されている。CPUは、不揮発性メモリに記憶された制御プログラムをRAMにロードして実行することによって、画像取得部30、較正パラメータ推定部40、画像較正部60、距離算出部70、として機能する。これらの機能部は、各種の回路によってハードウェア的に実現されてもよい。較正パラメータ記憶部50は、不揮発性メモリ内に確保された記憶領域である。   The distance measuring device 100 is configured by a computer including a CPU, a RAM, a nonvolatile memory, and the like. The CPU functions as the image acquisition unit 30, the calibration parameter estimation unit 40, the image calibration unit 60, and the distance calculation unit 70 by loading the control program stored in the nonvolatile memory into the RAM and executing it. These functional units may be realized in hardware by various circuits. The calibration parameter storage unit 50 is a storage area secured in the nonvolatile memory.

画像取得部30は、対象物200を異なる位置から撮像して得られた第1画像および第2画像を取得する。本実施形態では、画像取得部30は、第1撮像装置10から第1画像を取得し、第2撮像装置20から第2画像を取得する。第1撮像装置10は、第2撮像装置20の左側に配置されており、左側の画像(第1画像)を撮像する。第2撮像装置は、第1撮像装置10の右側に配置されており、右側の画像(第2画像)を撮像する。第1撮像装置10のことを左カメラともいい、第2撮像装置20のことを右カメラともいう。第1撮像装置10と第2撮像装置20とをあわせてステレオカメラともいう。   The image acquisition unit 30 acquires a first image and a second image obtained by imaging the object 200 from different positions. In the present embodiment, the image acquisition unit 30 acquires the first image from the first imaging device 10 and acquires the second image from the second imaging device 20. The first imaging device 10 is disposed on the left side of the second imaging device 20 and captures an image on the left side (first image). The second imaging device is disposed on the right side of the first imaging device 10 and captures an image on the right side (second image). The first imaging device 10 is also referred to as a left camera, and the second imaging device 20 is also referred to as a right camera. The first imaging device 10 and the second imaging device 20 are collectively referred to as a stereo camera.

較正パラメータ推定部40は、第1画像および第2画像を較正するための較正パラメータを、第1画像および第2画像に共通する特徴の対応点の位置に基づき推定する。較正パラメータとは、第1画像および第2画像の視差に基づき対象物200までの距離を測定可能とするために、これらの画像を補正(較正)するためのパラメータである。本実施形態では、第1撮像装置10および第2撮像装置20の内部パラメータ(焦点距離、画像中心、アスペクト比、スキュー)および歪み係数は既知であるものとし、較正パラメータとして、外部パラメータを推定する。外部パラメータとは、撮像装置の回転パラメータおよび並進パラメータのことをいう。外部パラメータは、回転方向に3自由度、並進方向に3自由度の計6自由度を有するパラメータである。   The calibration parameter estimation unit 40 estimates calibration parameters for calibrating the first image and the second image based on the positions of corresponding points of features common to the first image and the second image. The calibration parameter is a parameter for correcting (calibrating) these images so that the distance to the object 200 can be measured based on the parallax between the first image and the second image. In the present embodiment, internal parameters (focal length, image center, aspect ratio, skew) and distortion coefficient of the first imaging device 10 and the second imaging device 20 are known, and external parameters are estimated as calibration parameters. . External parameters refer to rotation parameters and translation parameters of the imaging device. The external parameter is a parameter having a total of 6 degrees of freedom, 3 degrees of freedom in the rotation direction and 3 degrees of freedom in the translation direction.

本実施形態では、較正パラメータ推定部40は、較正パラメータおよび対応点の位置を更新しながら、較正パラメータの更新前後の変化量を表す項と、対応点の位置の更新前後の変化量を表す項と、を含む評価関数から算出される評価値を、繰り返し算出して最適化することにより、較正パラメータを推定する。評価関数や最適化の詳細については後で詳しく説明する。推定された較正パラメータは、較正パラメータ記憶部50に記憶される。   In the present embodiment, the calibration parameter estimation unit 40 updates the calibration parameter and the position of the corresponding point, and represents a change amount before and after the update of the calibration parameter and a change amount before and after the update of the position of the corresponding point. The calibration parameter is estimated by repeatedly calculating and optimizing the evaluation value calculated from the evaluation function including: Details of the evaluation function and optimization will be described in detail later. The estimated calibration parameter is stored in the calibration parameter storage unit 50.

画像較正部60は、較正パラメータ記憶部50に記憶された較正パラメータに基づき第1画像および第2画像を較正する。本実施形態において、「第1画像および第2画像を較正する」とは、後述する距離算出部70が、画像中に撮像された対象物200までの距離を算出可能なように、較正パラメータを用いて第1画像および第2画像の少なくとも一方を補正することをいい、第1画像のみを補正することと、第2画像のみを補正することと、第1画像および第2画像の両方を補正することと、のいずれかを含む。   The image calibration unit 60 calibrates the first image and the second image based on the calibration parameters stored in the calibration parameter storage unit 50. In this embodiment, “calibrate the first image and the second image” means that the calibration parameter is set so that the distance calculation unit 70 described later can calculate the distance to the object 200 captured in the image. Used to correct at least one of the first image and the second image, correcting only the first image, correcting only the second image, and correcting both the first image and the second image Or any one of the following.

距離算出部70は、画像較正部60によって較正された第1画像および第2画像を用いて、これらの画像に共通して撮像された対象物200までの距離を算出する。距離の算出は、三角測量法によって行われる。三角測量法は周知の技術であるため、説明は省略する。距離算出部70によって算出された距離は、車両のECU(Electronic Control Unit)に出力され、緊急ブレーキや車間距離の調整といった自動運転制御に用いられる。   The distance calculation unit 70 uses the first image and the second image calibrated by the image calibration unit 60 to calculate the distance to the object 200 captured in common with these images. The distance is calculated by triangulation. Since the triangulation method is a well-known technique, description thereof is omitted. The distance calculated by the distance calculation unit 70 is output to an ECU (Electronic Control Unit) of the vehicle and used for automatic driving control such as emergency braking and adjustment of the inter-vehicle distance.

A2.処理内容:
図2は、測距装置100によって実行される較正パラメータ推定処理のフローチャートである。この処理は、測距装置100の動作中に所定の周期で繰り返し実行される処理である。
A2. Processing content:
FIG. 2 is a flowchart of calibration parameter estimation processing executed by the distance measuring apparatus 100. This process is a process that is repeatedly executed at a predetermined cycle during the operation of the distance measuring apparatus 100.

較正パラメータ推定処理が開始されると、まず、測距装置100は、現在が、較正パラメータの更新タイミングであるか否かを判断する(ステップS10)。本実施形態において、測距装置100は、10分経過するごとに更新タイミングであると判断する。その他、例えば、測距装置100は、測距装置100が搭載された車両が静止したタイミングや、測距装置100が搭載された車両において距離が用いられる運転制御が実行されていない走行中のタイミングに、較正パラメータの更新タイミングであると判断してもよい。   When the calibration parameter estimation process is started, first, the distance measuring device 100 determines whether or not the current time is the calibration parameter update timing (step S10). In the present embodiment, the distance measuring device 100 determines that the update timing is reached every 10 minutes. In addition, for example, the distance measuring device 100 is a timing at which a vehicle on which the distance measuring device 100 is mounted stops or a driving timing at which driving control using distance is not performed on the vehicle on which the distance measuring device 100 is mounted. In addition, it may be determined that it is the calibration parameter update timing.

測距装置100は、現在が、較正パラメータの更新タイミングではないと判断した場合には(ステップS10:No)、当該較正パラメータ推定処理を終了する。一方、現在が、較正パラメータの更新タイミングであると判断した場合には(ステップS10:Yes)、測距装置100は、較正パラメータの初期値を較正パラメータ記憶部50から読み込む(ステップS20)。較正パラメータの初期値とは、当該較正パラメータ推定処理が過去に実行済みであれば、前回の較正パラメータ推定処理において推定された値である。これに対して、当該較正パラメータ推定処理が過去に一度も実行されたことがなければ、当該測距装置100の工場出荷時に較正パラメータ記憶部50に記憶された値である。なお、当該較正パラメータ推定処理が過去に一度も実行されたことがない場合、工場出荷時に記憶された値ではなく、較正パラメータの設計値や、測距装置100が搭載された車両の走行中に当該較正パラメータ推定処理と同様の処理を実行して推定した仮の較正パラメータの値を初期値として用いてもよい。   If the distance measuring apparatus 100 determines that the present time is not the calibration parameter update timing (step S10: No), the calibration parameter estimation process ends. On the other hand, when it is determined that the current timing is the calibration parameter update timing (step S10: Yes), the distance measuring device 100 reads the initial value of the calibration parameter from the calibration parameter storage unit 50 (step S20). The initial value of the calibration parameter is a value estimated in the previous calibration parameter estimation process if the calibration parameter estimation process has been executed in the past. On the other hand, if the calibration parameter estimation process has never been executed in the past, the value stored in the calibration parameter storage unit 50 when the distance measuring device 100 is shipped from the factory. If the calibration parameter estimation process has never been executed in the past, it is not the value stored at the time of shipment from the factory, but the design value of the calibration parameter or the vehicle equipped with the distance measuring device 100 is running. A value of a temporary calibration parameter estimated by executing a process similar to the calibration parameter estimation process may be used as an initial value.

較正パラメータの初期値を読み込むと、測距装置100の画像取得部30が、第1撮像装置10から第1画像を取得するとともに、第2撮像装置20から第2画像を取得する(ステップS30)。第1画像と第2画像とは、同一のタイミングで第1撮像装置10および第2撮像装置20により撮像された画像である。   When the initial values of the calibration parameters are read, the image acquisition unit 30 of the distance measuring device 100 acquires the first image from the first imaging device 10 and the second image from the second imaging device 20 (step S30). . The first image and the second image are images captured by the first imaging device 10 and the second imaging device 20 at the same timing.

これら2つの画像を取得すると、測距装置100の較正パラメータ推定部40が、2つの画像において同じ特徴を有する対応点を特定する(ステップS40)。本実施形態では、較正パラメータとして、6つの自由度を有する外部パラメータの推定を行うため、少なくとも5つの対応点を特定する。較正パラメータ推定部40は、対応点の特定の際に、RANSAC(Random Sampling Consensus)等のロバスト推定によって外れ値を除去してもよい。特徴点の抽出および対応点の特定は、周知の種々のアルゴリズムを用いて行うことが可能であり、手法は特に限定されない。   When these two images are acquired, the calibration parameter estimation unit 40 of the distance measuring device 100 identifies corresponding points having the same characteristics in the two images (step S40). In the present embodiment, at least five corresponding points are specified in order to estimate external parameters having six degrees of freedom as calibration parameters. The calibration parameter estimation unit 40 may remove outliers by robust estimation such as RANSAC (Random Sampling Consensus) when specifying corresponding points. Extraction of feature points and identification of corresponding points can be performed using various known algorithms, and the method is not particularly limited.

較正パラメータ推定部40は、2つの画像から対応点を特定すると、較正パラメータおよび対応点の位置を更新しながら以下の式(1)によって表される評価関数(コスト関数ともいう)を用いて評価値EVを算出する(ステップS50)。較正パラメータ推定部40は、本実施形態では勾配法を用いて、この評価値EVが小さくなるように、較正パラメータおよび対応点を次々に更新することによって評価値を最適化して較正パラメータを求める。つまり、本実施形態では、較正パラメータの推定にあたり、較正パラメータだけではなく、対応点の位置も更新しながら、較正パラメータの推定を行う。なお、他の実施形態では、勾配法ではなく、レーベンバーグ・マーカート法等の最適化手法を用いてもよい。   When the calibration parameter estimation unit 40 identifies the corresponding points from the two images, the calibration parameter estimation unit 40 evaluates using the evaluation function (also referred to as a cost function) represented by the following equation (1) while updating the positions of the calibration parameters and the corresponding points. A value EV is calculated (step S50). In this embodiment, the calibration parameter estimation unit 40 uses the gradient method to optimize the evaluation value by successively updating the calibration parameter and the corresponding point so as to reduce the evaluation value EV, thereby obtaining the calibration parameter. That is, in the present embodiment, in estimating the calibration parameter, the calibration parameter is estimated while updating not only the calibration parameter but also the position of the corresponding point. In other embodiments, an optimization method such as the Levenberg-Marquardt method may be used instead of the gradient method.

EV=|(更新後の対応点の位置)−(特定された対応点の位置)|
+|(更新後の較正パラメータ)−(較正パラメータの初期値)|
+|(第1撮像装置および第2撮像装置の位置の一致度)| ・・・(1)
EV = | (position of corresponding point after update) − (position of identified corresponding point) | 2
+ | (Calibration parameter after update) − (initial value of calibration parameter) | 2
+ | (The degree of coincidence of the positions of the first imaging device and the second imaging device) | 2 (1)

上記式(1)において、右辺の第1項は、対応点の位置の更新前後の変化量を表し、第2項は、較正パラメータの更新前後の変化量を表す。右辺の第3項は、左右カメラの幾何拘束ともいう。式(1)の詳細、および、これを用いた最適化の手法については後で詳しく説明する。   In the above formula (1), the first term on the right side represents the amount of change before and after the update of the position of the corresponding point, and the second term represents the amount of change before and after the calibration parameter is updated. The third term on the right side is also called geometric constraint of the left and right cameras. Details of Expression (1) and an optimization method using this will be described in detail later.

較正パラメータ推定部40は、評価値EVを算出すると、最適化が完了したか否かを判断する(ステップS60)。較正パラメータ推定部40は、評価値EVの最小値が探索された場合、評価値EVが所定の閾値よりも小さくなった場合、または、上記ステップS50およびステップS60を繰り返し実行している時間が予め定められた時間を経過した場合に、最適化が完了したと判断する。較正パラメータ推定部40は、最適化が完了していないと判断した場合には(ステップS60:No)、処理をステップS50に戻して、評価値EVが小さくなるように、較正パラメータおよび対応点を更新する。   After calculating the evaluation value EV, the calibration parameter estimation unit 40 determines whether or not the optimization is completed (step S60). The calibration parameter estimator 40 determines whether the minimum value of the evaluation value EV has been searched, the evaluation value EV has become smaller than a predetermined threshold value, or the time during which the above steps S50 and S60 are repeatedly executed in advance. When a predetermined time has elapsed, it is determined that the optimization has been completed. If the calibration parameter estimation unit 40 determines that the optimization has not been completed (step S60: No), the calibration parameter estimation unit 40 returns the process to step S50, and sets the calibration parameters and corresponding points so that the evaluation value EV becomes small. Update.

較正パラメータ推定部40は、最適化が完了したと判断した場合には(ステップS60:Yes)、最適化が完了した時点での較正パラメータ、つまり、今回推定された較正パラメータと、ステップS20で読み込んだ初期値(前回推定された較正パラメータ)とを比較して、その差が予め定めた許容範囲内であるか否かを判断する(ステップS70)。   When the calibration parameter estimation unit 40 determines that the optimization is completed (step S60: Yes), the calibration parameter at the time when the optimization is completed, that is, the calibration parameter estimated this time, is read in step S20. The initial value (calibration parameter estimated last time) is compared, and it is determined whether or not the difference is within a predetermined allowable range (step S70).

較正パラメータ推定部40は、今回と前回の較正パラメータの差が許容範囲外であると判断した場合には(ステップS70:No)、今回推定された較正パラメータを破棄する(ステップS80)。従って、この場合、較正パラメータ記憶部50には、過去に推定された較正パラメータがそのまま保存された状態になる。これに対して、較正パラメータ推定部40は、較正パラメータの変化が許容範囲内であると判断すれば(ステップS70:Yes)、較正パラメータ記憶部50に記憶されている過去の較正パラメータを消去して、最適化が完了した時点における較正パラメータを較正パラメータ記憶部50に保存する(ステップS90)。以上で説明した一連の処理によって較正パラメータ推定処理は終了する。   When the calibration parameter estimation unit 40 determines that the difference between the current calibration parameter and the previous calibration parameter is outside the allowable range (step S70: No), the calibration parameter estimated this time is discarded (step S80). Therefore, in this case, the calibration parameter storage unit 50 is in a state where calibration parameters estimated in the past are stored as they are. On the other hand, if the calibration parameter estimation unit 40 determines that the change in the calibration parameter is within the allowable range (step S70: Yes), the calibration parameter estimation unit 40 deletes the past calibration parameter stored in the calibration parameter storage unit 50. Then, the calibration parameter at the time when the optimization is completed is stored in the calibration parameter storage unit 50 (step S90). The calibration parameter estimation process is completed by the series of processes described above.

A3.最適化の詳細:
以下では、上述した評価関数を用いた最適化について説明する。第1撮像装置10(左カメラ)のカメラ座標系の位置(u,v)と、実空間上の位置(X,Y,Z)との対応関係は、次の式(2)によって表される。Kは、第1撮像装置10の内部パラメータであり、本実施形態では定数である。また、Iは単位行列である。
A3. Optimization details:
Below, the optimization using the evaluation function mentioned above is demonstrated. The correspondence relationship between the position (u l , v l ) in the camera coordinate system of the first imaging device 10 (left camera) and the position (X, Y, Z) in the real space is expressed by the following equation (2). Is done. K is an internal parameter of the first imaging device 10 and is a constant in the present embodiment. I is a unit matrix.

Figure 2019148548
Figure 2019148548

第2撮像装置20(右カメラ)のカメラ座標系の位置(u,u)と、実空間上の位置(X,Y,Z)との対応関係は、次の式(3)によって表される。Kは、第2撮像装置20の内部パラメータであり、本実施形態では定数である。このKは、第1撮像装置10のKと同じ値でもよいし、異なる値でもよい。[R,T]は外部パラメータであり、Rは、回転パラメータ(rx,ry,rz)を表し、Tは並進パラメータ(tx,ty,tz)を表す。なお、rxをピッチ、ryをヨー、rzをロールともいう。 Position of the camera coordinate system in the second imaging device 20 (right camera) (u r, u r) and a corresponding relationship between the position in the real space (X, Y, Z), the table by the following equation (3) Is done. K is an internal parameter of the second imaging device 20, and is a constant in the present embodiment. This K may be the same value as K of the first imaging device 10 or a different value. [R, T] are external parameters, R represents a rotation parameter (rx, ry, rz), and T represents a translation parameter (tx, ty, tz). Note that rx is also referred to as pitch, ry as yaw and rz as roll.

Figure 2019148548
Figure 2019148548

上記式(2)および上記(3)より、次の式(4)が求められ、式(4)は、式(5)のように表すことができる。   From the above equations (2) and (3), the following equation (4) is obtained, and equation (4) can be expressed as equation (5).

Figure 2019148548
Figure 2019148548

Figure 2019148548
Figure 2019148548

そして、式(5)は、次の式(6)(7)として表される。   And Formula (5) is represented as following Formula (6) (7).

Figure 2019148548
Figure 2019148548

ここで、左画像(第1画像)の座標と、右画像(第2画像)の座標との対応関係は、次の式(8)によって表される。本実施形態ではKは既知であるため、外部パラメータ[R,t]が決定されれば、距離算出部70は、対象物200の右画像における座標と左画像における座標から、その奥行き方向の位置Zを算出できる。   Here, the correspondence between the coordinates of the left image (first image) and the coordinates of the right image (second image) is expressed by the following equation (8). Since K is known in the present embodiment, if the external parameter [R, t] is determined, the distance calculation unit 70 determines the position in the depth direction from the coordinates in the right image and the coordinates in the left image of the object 200. Z can be calculated.

(右画像の座標)=Z*K*[R,t]*(左画像の座標) ・・・(8) (Right image coordinates) = Z * K * [R, t] * (Left image coordinates) (8)

上記式(1)によって表される評価関数の右辺は、上記式(6)および式(7)により、以下の式(9)のように表すことができる。   The right side of the evaluation function represented by the above formula (1) can be expressed as the following formula (9) by the above formula (6) and formula (7).

Figure 2019148548
Figure 2019148548

式(9)の第1項、第2項、第3項は、式(1)の右辺の第1項、第2項、第3項に対応する。つまり、第1項は、対応点の位置の更新前後の変化量を表し、第2項は、較正パラメータの更新前後の変化量を表し、第3項は、第1撮像装置および第2撮像装置の位置の一致度を表す。ただし、式(9)では、式(1)の評価関数における第3項の影響度を任意に設定可能とするため、任意の定数λを導入している。   The first, second, and third terms of Equation (9) correspond to the first, second, and third terms on the right side of Equation (1). That is, the first term represents the change amount before and after the update of the position of the corresponding point, the second term represents the change amount before and after the update of the calibration parameter, and the third term represents the first imaging device and the second imaging device. This represents the degree of coincidence of the positions. However, in equation (9), an arbitrary constant λ is introduced in order to arbitrarily set the degree of influence of the third term in the evaluation function of equation (1).

上記式(9)の第3項の括弧内をx座標とy座標とに分離して考える。x座標については、以下の式(10)によって、コスト関数cost1として表され、y座標については、以下の式(11)によって、コスト関数cost2として表される。   The parentheses in the third term of the above formula (9) are considered separately into x and y coordinates. The x coordinate is expressed as a cost function cost1 by the following equation (10), and the y coordinate is expressed as a cost function cost2 by the following equation (11).

cost1 = ty - v2*(tz + Z*v1*sin(rx) + Z*cos(rx)*cos(ry) - Z*u1*cos(rx)*sin(ry)) + Z*(sin(ry)*sin(rz) - cos(ry)*cos(rz)*sin(rx)) + Z*u1*(cos(ry)*sin(rz) + cos(rz)*sin(rx)*sin(ry)) + Z*v1*cos(rx)*cos(rz) ・・・(10) cost1 = ty-v2 * (tz + Z * v1 * sin (rx) + Z * cos (rx) * cos (ry)-Z * u1 * cos (rx) * sin (ry)) + Z * (sin ( ry) * sin (rz)-cos (ry) * cos (rz) * sin (rx)) + Z * u1 * (cos (ry) * sin (rz) + cos (rz) * sin (rx) * sin (ry)) + Z * v1 * cos (rx) * cos (rz) (10)

cost2 = Z*(cos(rz)*sin(ry) + cos(ry)*sin(rx)*sin(rz)) - u2*(tz + Z*v1*sin(rx) + Z*cos(rx)*cos(ry) - Z*u1*cos(rx)*sin(ry)) - tx + Z*u1*(cos(ry)*cos(rz) - sin(rx)*sin(ry)*sin(rz)) - Z*v1*cos(rx)*sin(rz) ・・・(11) cost2 = Z * (cos (rz) * sin (ry) + cos (ry) * sin (rx) * sin (rz))-u2 * (tz + Z * v1 * sin (rx) + Z * cos (rx ) * cos (ry)-Z * u1 * cos (rx) * sin (ry))-tx + Z * u1 * (cos (ry) * cos (rz)-sin (rx) * sin (ry) * sin (rz))-Z * v1 * cos (rx) * sin (rz) (11)

x座標についての回転パラメータの傾き(grx1,gry1,grz1)および並進パラメータの傾き(gtx1,gty1,gtz1)は、以下のように表される。   The rotation parameter gradient (grx1, gry1, grz1) and the translation parameter gradient (gtx1, gty1, gtz1) about the x-coordinate are expressed as follows.

grx1 = Z*u1*cos(rx)*cos(rz)*sin(ry) - Z*cos(rx)*cos(ry)*cos(rz) - Z*v1*cos(rz)*sin(rx) - v2*(Z*v1*cos(rx) - Z*cos(ry)*sin(rx) + Z*u1*sin(rx)*sin(ry));
gry1 = Z*(cos(ry)*sin(rz) + cos(rz)*sin(rx)*sin(ry)) + v2*(Z*cos(rx)*sin(ry) + Z*u1*cos(rx)*cos(ry)) - Z*u1*(sin(ry)*sin(rz) - cos(ry)*cos(rz)*sin(rx));
grz1 = Z*(cos(rz)*sin(ry) + cos(ry)*sin(rx)*sin(rz)) + Z*u1*(cos(ry)*cos(rz) - sin(rx)*sin(ry)*sin(rz)) - Z*v1*cos(rx)*sin(rz);
gtx1 = 0;
gty1 =1;
gtz1 =-v2;
grx1 = Z * u1 * cos (rx) * cos (rz) * sin (ry)-Z * cos (rx) * cos (ry) * cos (rz)-Z * v1 * cos (rz) * sin (rx )-v2 * (Z * v1 * cos (rx)-Z * cos (ry) * sin (rx) + Z * u1 * sin (rx) * sin (ry));
gry1 = Z * (cos (ry) * sin (rz) + cos (rz) * sin (rx) * sin (ry)) + v2 * (Z * cos (rx) * sin (ry) + Z * u1 * cos (rx) * cos (ry))-Z * u1 * (sin (ry) * sin (rz)-cos (ry) * cos (rz) * sin (rx));
grz1 = Z * (cos (rz) * sin (ry) + cos (ry) * sin (rx) * sin (rz)) + Z * u1 * (cos (ry) * cos (rz)-sin (rx) * sin (ry) * sin (rz))-Z * v1 * cos (rx) * sin (rz);
gtx1 = 0;
gty1 = 1;
gtz1 = -v2;

また、y座標についての回転パラメータの傾き(grx2,gry2,grz2)および並進パラメータの傾き(gtx2,gty2,gtz2)は、以下のように表される。   In addition, the rotation parameter gradient (grx2, gry2, grz2) and the translation parameter gradient (gtx2, gty2, gtz2) with respect to the y-coordinate are expressed as follows.

grx2 = Z*cos(rx)*cos(ry)*sin(rz) - u2*(Z*v1*cos(rx) - Z*cos(ry)*sin(rx) + Z*u1*sin(rx)*sin(ry)) + Z*v1*sin(rx)*sin(rz) - Z*u1*cos(rx)*sin(ry)*sin(rz);
gry2 = Z*(cos(ry)*cos(rz) - sin(rx)*sin(ry)*sin(rz)) + u2*(Z*cos(rx)*sin(ry) + Z*u1*cos(rx)*cos(ry)) - Z*u1*(cos(rz)*sin(ry) + cos(ry)*sin(rx)*sin(rz));
grz2 = - Z*(sin(ry)*sin(rz) - cos(ry)*cos(rz)*sin(rx)) - Z*u1*(cos(ry)*sin(rz) + cos(rz)*sin(rx)*sin(ry)) - Z*v1*cos(rx)*cos(rz);
gtx2 = -1;
gty2 = 0;
gtz2 = -u2;
grx2 = Z * cos (rx) * cos (ry) * sin (rz)-u2 * (Z * v1 * cos (rx)-Z * cos (ry) * sin (rx) + Z * u1 * sin (rx ) * sin (ry)) + Z * v1 * sin (rx) * sin (rz)-Z * u1 * cos (rx) * sin (ry) * sin (rz);
gry2 = Z * (cos (ry) * cos (rz)-sin (rx) * sin (ry) * sin (rz)) + u2 * (Z * cos (rx) * sin (ry) + Z * u1 * cos (rx) * cos (ry))-Z * u1 * (cos (rz) * sin (ry) + cos (ry) * sin (rx) * sin (rz));
grz2 =-Z * (sin (ry) * sin (rz)-cos (ry) * cos (rz) * sin (rx))-Z * u1 * (cos (ry) * sin (rz) + cos (rz ) * sin (rx) * sin (ry))-Z * v1 * cos (rx) * cos (rz);
gtx2 = -1;
gty2 = 0;
gtz2 = -u2;

x座標についての対応点の傾きは、以下のように表される。   The slope of the corresponding point with respect to the x coordinate is expressed as follows.

g1u1 = Z*(cos(ry)*sin(rz) + cos(rz)*sin(rx)*sin(ry)) + Z*v2*cos(rx)*sin(ry);
g1v1 = Z*cos(rx)*cos(rz) - Z*v2*sin(rx);
g1u2 = 0;
g1v2 = Z*u1*cos(rx)*sin(ry) - Z*v1*sin(rx) - Z*cos(rx)*cos(ry) - tz;
g1u1 = Z * (cos (ry) * sin (rz) + cos (rz) * sin (rx) * sin (ry)) + Z * v2 * cos (rx) * sin (ry);
g1v1 = Z * cos (rx) * cos (rz)-Z * v2 * sin (rx);
g1u2 = 0;
g1v2 = Z * u1 * cos (rx) * sin (ry)-Z * v1 * sin (rx)-Z * cos (rx) * cos (ry)-tz;

また、y座標についての対応点の傾きは、以下のように表される。   The slope of the corresponding point with respect to the y coordinate is expressed as follows.

g2u1 = Z*(cos(ry)*cos(rz) - sin(rx)*sin(ry)*sin(rz)) + Z*u2*cos(rx)*sin(ry);
g2v1 = - Z*u2*sin(rx) - Z*cos(rx)*sin(rz);
g2u2 = Z*u1*cos(rx)*sin(ry) - Z*v1*sin(rx) - Z*cos(rx)*cos(ry) - tz;
g2v2 = 0;
g2u1 = Z * (cos (ry) * cos (rz)-sin (rx) * sin (ry) * sin (rz)) + Z * u2 * cos (rx) * sin (ry);
g2v1 =-Z * u2 * sin (rx)-Z * cos (rx) * sin (rz);
g2u2 = Z * u1 * cos (rx) * sin (ry)-Z * v1 * sin (rx)-Z * cos (rx) * cos (ry)-tz;
g2v2 = 0;

対応点i毎の回転・並進パラメータの傾きは以下のように表される。ただし、lambda1は定数であり、rx0,ry0,rz0,tx0,ty0,tz0は、回転・並進パラメータの初期値(前回値)である。   The inclination of the rotation / translation parameter for each corresponding point i is expressed as follows. However, lambda1 is a constant, and rx0, ry0, rz0, tx0, ty0, and tz0 are initial values (previous values) of rotation / translation parameters.

grx(i) = (grx1*cost1+grx2*cost2)/Z/Z+lambda1*(rx-rx0);
gry(i) = (gry1*cost1+gry2*cost2)/Z/Z+lambda1*(ry-ry0);
grz(i) = (grz1*cost1+grz2*cost2)/Z/Z+lambda1*(rz-rz0);
gtx(i) = (gtx1*cost1+gtx2*cost2)/abs(Z)+lambda1*(tx-tx0);
gty(i) = (gty1*cost1+gty2*cost2)/abs(Z)+lambda1*(ty-ty0);
gtz(i) = (gtz1*cost1+gtz2*cost2)/abs(Z)+lambda1*(tz-tz0);
grx (i) = (grx1 * cost1 + grx2 * cost2) / Z / Z + lambda1 * (rx-rx0);
gry (i) = (gry1 * cost1 + gry2 * cost2) / Z / Z + lambda1 * (ry-ry0);
grz (i) = (grz1 * cost1 + grz2 * cost2) / Z / Z + lambda1 * (rz-rz0);
gtx (i) = (gtx1 * cost1 + gtx2 * cost2) / abs (Z) + lambda1 * (tx-tx0);
gty (i) = (gty1 * cost1 + gty2 * cost2) / abs (Z) + lambda1 * (ty-ty0);
gtz (i) = (gtz1 * cost1 + gtz2 * cost2) / abs (Z) + lambda1 * (tz-tz0);

また、対応点i毎の位置の傾きは以下のように算出される。ただし、lambda2は定数であり、u10(i),v10(i),u20(i),v20(i)は、対応点iごとの位置の初期値(前回値)である。   Further, the inclination of the position for each corresponding point i is calculated as follows. However, lambda2 is a constant, and u10 (i), v10 (i), u20 (i), and v20 (i) are initial values (previous values) of positions for corresponding points i.

gu1(i) = (g1u1*cost1+g2u1*cost2)/abs(Z)+lambda2*(u1-u10(i));
gv1(i) = (g1v1*cost1+g2v1*cost2)/abs(Z)+lambda2*(v1-v10(i));
gu2(i) = (g1u2*cost1+g2u2*cost2)/abs(Z)+lambda2*(u2-u20(i));
gv2(i) = (g1v2*cost1+g2v2*cost2)/abs(Z)+lambda2*(v2-v20(i));
gu1 (i) = (g1u1 * cost1 + g2u1 * cost2) / abs (Z) + lambda2 * (u1-u10 (i));
gv1 (i) = (g1v1 * cost1 + g2v1 * cost2) / abs (Z) + lambda2 * (v1-v10 (i));
gu2 (i) = (g1u2 * cost1 + g2u2 * cost2) / abs (Z) + lambda2 * (u2-u20 (i));
gv2 (i) = (g1v2 * cost1 + g2v2 * cost2) / abs (Z) + lambda2 * (v2-v20 (i));

こうして対応点毎に求めた傾きの平均値(mean())に定数lr1,lr2を乗じて、回転・並進パラメータと、対応点の位置とを更新する。ただし、fは焦点距離である。   In this way, the average value (mean ()) of the inclination obtained for each corresponding point is multiplied by the constants lr1 and lr2, and the rotation / translation parameter and the position of the corresponding point are updated. However, f is a focal distance.

rx = rx-lr1*mean(grx);
ry = ry-lr1*mean(gry);
rz = rz-lr1*mean(grz);
tx = tx-lr1*mean(gtx)/10;
ty = ty-lr1*mean(gty)/10;
tz = tz-lr1*mean(gtz)/1000;
pt1(i,1) = pt1(i,1)-lr2./300*f.*gu1(i);
pt1(i,2) = pt1(i,2)-lr2./300*f.*gv1(i);
pt2(i,1) = pt2(i,1)-lr2./300*f.*gu2(i);
pt2(i,2) = pt2(i,2)-lr2./300*f.*gv2(i);
rx = rx-lr1 * mean (grx);
ry = ry-lr1 * mean (gry);
rz = rz-lr1 * mean (grz);
tx = tx-lr1 * mean (gtx) / 10;
ty = ty-lr1 * mean (gty) / 10;
tz = tz-lr1 * mean (gtz) / 1000;
pt1 (i, 1) = pt1 (i, 1) -lr2./300*f.*gu1 (i);
pt1 (i, 2) = pt1 (i, 2) -lr2./300*f.*gv1 (i);
pt2 (i, 1) = pt2 (i, 1) -lr2./300*f.*gu2 (i);
pt2 (i, 2) = pt2 (i, 2) -lr2./300*f.*gv2 (i);

なお、画像の左上が原点の座標であるpt1,pt2と、カメラの焦点中心が原点の座標であるu1,v1,u2,v2の関係は以下のとおりである。ただし、cx,cyは焦点中心の座標,fは焦点距離である。   The relationship between pt1 and pt2 where the upper left corner of the image is the coordinate of the origin and u1, v1, u2 and v2 where the focal point of the camera is the coordinate of the origin is as follows. Here, cx and cy are the coordinates of the focal center, and f is the focal length.

u1(i) = (pt1(i,1)-cx)/f;
v1(i) = (pt1(i,2)-cy)/f;
u2(i) = (pt2(i,1)-cx)/f;
v2(i) = (pt2(i,2)-cy)/f;
u1 (i) = (pt1 (i, 1) -cx) / f;
v1 (i) = (pt1 (i, 2) -cy) / f;
u2 (i) = (pt2 (i, 1) -cx) / f;
v2 (i) = (pt2 (i, 2) -cy) / f;

本実施形態では、上記各計算式を用いて、回転・並進パラメータおよび対応点の位置を更新しつつ、上記式(9)を用いて評価値EVを最小化するように最適化していくことで、回転・並進パラメータおよび対応点の位置を真値に近づけるよう推定する。なお、上述した各式における定数(lambda1,lambda2,lr1,lr2)は、各パラメータの更新前後において値を大きく変動させないための定数であり、値は、実験に基づき任意に設定可能である。   In the present embodiment, the calculation value is optimized by using the above formula (9) while minimizing the evaluation value EV while updating the rotation / translation parameter and the position of the corresponding point. The rotation / translation parameter and the position of the corresponding point are estimated to be close to the true value. Note that the constants (lambda1, lambda2, lr1, lr2) in the above-described equations are constants for preventing the values from greatly changing before and after the update of each parameter, and the values can be arbitrarily set based on experiments.

A4.実施形態の効果:
図3〜図5には、上記式(1)の評価関数から第1項を省略して回転パラメータをフレーム毎に推定した結果を比較例として示し、図6〜図8には、上記式(1)の評価関数を用いて回転パラメータをフレーム毎に推定した結果を示している。図3,図6には、第1撮像装置10と第2撮像装置20とでピッチが一定値ずれている場合の推定結果を示し、図4,7には、第1撮像装置10と第2撮像装置20とでロールが一定値ずれている場合の推定結果を示している。また、図5,8には、第1撮像装置10と第2撮像装置20とでヨーが一定値ずれている場合の推定結果を示している。
A4. Effects of the embodiment:
FIGS. 3 to 5 show, as comparative examples, results of estimating the rotation parameter for each frame by omitting the first term from the evaluation function of the above expression (1), and FIGS. The result of estimating the rotation parameter for each frame using the evaluation function of 1) is shown. 3 and 6 show estimation results when the pitch is deviated by a constant value between the first imaging device 10 and the second imaging device 20, and FIGS. 4 and 7 show the first imaging device 10 and the second imaging device. An estimation result when the roll is deviated by a certain value from the imaging device 20 is shown. 5 and 8 show estimation results when the yaw is deviated by a certain value between the first imaging device 10 and the second imaging device 20.

図3〜図5と図6〜図8とを対比して明らかなように、式(1)の第1項、すなわち、対応点の位置の更新前後の変化量を評価関数に含めて回転パラメータを推定したところ、対応点の位置の更新前後の変化量を含めずに回転パラメータを推定した比較例よりも、推定値の変動が格段に小さくなった。これは、対応点の位置には特徴点の抽出過程や座標上の点とするための端数処理において誤差あるいはノイズが含まれることがあるが、本実施形態では、このような誤差やノイズを含む可能性のある対応点の位置についても真値になるように評価値が最適化されるため、較正パラメータを精度よく推定できるからである。   As apparent from the comparison between FIGS. 3 to 5 and FIGS. 6 to 8, the first term of equation (1), that is, the amount of change before and after the update of the position of the corresponding point is included in the evaluation function, and the rotation parameter. As a result, the fluctuation of the estimated value was remarkably smaller than that of the comparative example in which the rotation parameter was estimated without including the change amount before and after the update of the position of the corresponding point. This is because the position of the corresponding point may include an error or noise in the feature point extraction process or the fraction processing to obtain a point on the coordinate. In the present embodiment, such error or noise is included. This is because the evaluation value is optimized so that the position of a possible corresponding point also becomes a true value, so that the calibration parameter can be estimated with high accuracy.

以上で説明したように、本実施形態の測距装置100によれば、較正パラメータだけではなく、対応点の位置を更新しながら評価値を最適化して較正パラメータを推定するので、較正パラメータを精度よく求めることができる。そのため、第1撮像装置10および第2撮像装置20によって撮像された画像を精度よく較正することができ、対象物までの距離を正確に測定することができる。また、本実施形態では、第1撮像装置10および第2撮像装置20の位置の一致度をも用いて最適化を行うため、より精度よく較正パラメータを推定することができる。さらに、本実施形態では、推定された較正パラメータが許容範囲外である場合に、その値を破棄するため、より精度よく距離を測定することができる。   As described above, according to the distance measuring apparatus 100 of the present embodiment, the calibration parameter is estimated by optimizing the evaluation value while updating not only the calibration parameter but also the position of the corresponding point. You can often ask. Therefore, the images captured by the first imaging device 10 and the second imaging device 20 can be accurately calibrated, and the distance to the object can be accurately measured. In the present embodiment, since optimization is performed using the degree of coincidence between the positions of the first imaging device 10 and the second imaging device 20, the calibration parameter can be estimated more accurately. Furthermore, in this embodiment, when the estimated calibration parameter is out of the allowable range, the value is discarded, so that the distance can be measured with higher accuracy.

B.他の実施形態:
本開示は、上述の実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の形態で実現することができる。例えば、以下のような形態が可能である。
B. Other embodiments:
The present disclosure is not limited to the above-described embodiment, and can be realized in various forms without departing from the spirit of the present disclosure. For example, the following forms are possible.

(B−1)上記実施形態では、測距装置100は車両に搭載されるものとして説明したが、測距装置100は、車両に限らず、他の移動体や他の測定装置に搭載されてもよい。 (B-1) In the above-described embodiment, the distance measuring device 100 has been described as being mounted on a vehicle. However, the distance measuring device 100 is not limited to a vehicle, and is mounted on another moving body or another measuring device. Also good.

(B−2)上記実施形態では、較正パラメータとして外部パラメータの推定を行った。これに対して、較正パラメータ推定部40は、外部パラメータにとともに、内部パラメータや歪み係数を推定してもよく、画像較正部60はそれらのパラメータを用いて画像を較正してもよい。 (B-2) In the above embodiment, the external parameter is estimated as the calibration parameter. On the other hand, the calibration parameter estimation unit 40 may estimate internal parameters and distortion coefficients together with external parameters, and the image calibration unit 60 may calibrate an image using those parameters.

(B−3)上記実施形態において式(1)によって表される評価関数は、第1項〜第3項以外にも他の項を含んでもよい。また、第1項〜第3項のうち、例えば、第3項を省略してもよい。 (B-3) In the above embodiment, the evaluation function represented by the expression (1) may include other terms besides the first term to the third term. In addition, among the first to third terms, for example, the third term may be omitted.

(B−4)上記実施形態では、較正パラメータ推定部40は、図2に示したステップS70〜S80において、今回と前回の較正パラメータの差が許容範囲内でなければ、較正パラメータを破棄するものとした。しかし、この処理は省略可能である。また、例えば、較正パラメータ推定部40は、ステップS70〜S80の処理を、初回の較正パラメータ推定処理のみスキップしてもよい。こうすることにより、初回の較正パラメータ推定処理では、工場出荷時の初期値から離れた値が推定された場合でも、その値により初期値を強制的に更新することができる。 (B-4) In the above embodiment, the calibration parameter estimation unit 40 discards the calibration parameter if the difference between the current calibration parameter and the previous calibration parameter is not within the allowable range in steps S70 to S80 shown in FIG. It was. However, this process can be omitted. Further, for example, the calibration parameter estimation unit 40 may skip only the initial calibration parameter estimation processing of steps S70 to S80. In this way, in the initial calibration parameter estimation process, even when a value deviating from the initial value at the time of factory shipment is estimated, the initial value can be forcibly updated with the value.

10 第1撮像装置、20 第2撮像装置、30 画像取得部、40 較正パラメータ推定部、50 較正パラメータ記憶部、60 画像較正部、70 距離算出部、100 測距装置、200 対象物 DESCRIPTION OF SYMBOLS 10 1st imaging device, 20 2nd imaging device, 30 Image acquisition part, 40 Calibration parameter estimation part, 50 Calibration parameter memory | storage part, 60 Image calibration part, 70 Distance calculation part, 100 Distance measuring device, 200 Object

Claims (7)

測距装置(100)であって、
第1撮像装置(10)によって対象物が撮像された第1画像と、第2撮像装置(20)によって前記対象物が撮像された第2画像とを取得する画像取得部(30)と、
前記第1画像および第2画像を較正するための較正パラメータを、前記第1画像および前記第2画像に共通する特徴の対応点の位置に基づき推定する較正パラメータ推定部(40)と、
推定された前記較正パラメータに基づき前記第1画像および前記第2画像を較正する画像較正部(60)と、
較正された前記第1画像および前記第2画像を用いて前記対象物までの距離を算出する距離算出部(70)と、
を備え、
前記較正パラメータ推定部(40)は、
前記較正パラメータおよび前記対応点の位置を更新しながら、前記較正パラメータの更新前後の変化量を表す項と、前記対応点の位置の更新前後の変化量を表す項と、を含む評価関数から算出される評価値を、繰り返し算出して最適化することにより、前記較正パラメータの推定を行う、
測距装置(100)。
A distance measuring device (100),
An image acquisition unit (30) for acquiring a first image obtained by imaging the object by the first imaging device (10) and a second image obtained by imaging the object by the second imaging device (20);
A calibration parameter estimator (40) for estimating a calibration parameter for calibrating the first image and the second image based on a position of a corresponding point of a feature common to the first image and the second image;
An image calibration unit (60) for calibrating the first image and the second image based on the estimated calibration parameter;
A distance calculation unit (70) for calculating a distance to the object using the calibrated first image and the second image;
With
The calibration parameter estimation unit (40)
While updating the position of the calibration parameter and the corresponding point, calculated from an evaluation function including a term representing a change amount before and after the update of the calibration parameter and a term representing a change amount before and after the update of the position of the corresponding point The calibration parameter is estimated by repeatedly calculating and optimizing the evaluation value.
Distance measuring device (100).
請求項1に記載の測距装置であって、
前記較正パラメータは、回転パラメータと並進パラメータとを含む、測距装置。
The distance measuring device according to claim 1,
The distance measuring device, wherein the calibration parameter includes a rotation parameter and a translation parameter.
請求項1または請求項2に記載の測距装置であって、
前記評価関数は、前記第1撮像装置および前記第2撮像装置の位置の一致度を表す項を含む、測距装置。
The distance measuring device according to claim 1 or 2,
The distance measuring device, wherein the evaluation function includes a term representing a degree of coincidence between positions of the first imaging device and the second imaging device.
請求項1から請求項3までのいずれか一項に記載の測距装置であって、
前記較正パラメータ推定部は、前記較正パラメータの初期値として、前記測距装置の工場出荷時の値、前記較正パラメータの設計値、または、前記測距装置が搭載された車両の走行中に推定された較正パラメータの値、を用いる、測距装置。
It is a ranging apparatus as described in any one of Claim 1- Claim 3, Comprising:
The calibration parameter estimation unit is estimated as an initial value of the calibration parameter as a factory default value of the distance measuring device, a design value of the calibration parameter, or during travel of a vehicle on which the distance measuring device is mounted. Ranging device using calibration parameter values.
請求項1から請求項4までのいずれか一項に記載の測距装置であって、
前記較正パラメータ推定部は、前記測距装置が搭載された車両が静止しているとき、または、前記測距装置が搭載された車両において前記距離算出部によって算出された前記距離が用いられる運転制御が実行されていない走行中に、前記較正パラメータの推定を実行する、測距装置。
It is a ranging apparatus as described in any one of Claim 1- Claim 4, Comprising:
The calibration parameter estimator is a driving control in which the distance calculated by the distance calculator is used when a vehicle equipped with the distance measuring device is stationary or in a vehicle equipped with the distance measuring device. A distance measuring apparatus that performs estimation of the calibration parameter during traveling when is not performed.
請求項1から請求項5までのいずれか一項に記載の測距装置であって、
前記較正パラメータ推定部は、今回推定された較正パラメータと、前回推定された較正パラメータとの差が、予め定めた許容範囲外の場合に、今回推定された較正パラメータを破棄する、測距装置。
A distance measuring device according to any one of claims 1 to 5,
The calibration parameter estimation unit discards the calibration parameter estimated this time when the difference between the calibration parameter estimated this time and the calibration parameter estimated last time is outside a predetermined allowable range.
測距装置における較正パラメータの推定方法であって、
(a)第1撮像装置によって対象物が撮像された第1画像と、第2撮像装置によって前記対象物が撮像された第2画像とを取得する工程と、
(b)前記第1画像および第2画像を較正するための較正パラメータを、前記第1画像および前記第2画像に共通する特徴の対応点の位置に基づき推定する工程と、を備え、
前記工程(b)では、
前記較正パラメータおよび前記対応点の位置を更新しながら、前記較正パラメータの更新前後の変化量を表す項と、前記対応点の位置の更新前後の変化量を表す項と、を含む評価関数から算出される評価値を、繰り返し算出して最適化することにより、前記較正パラメータの推定を行う、
推定方法。
A method for estimating a calibration parameter in a distance measuring device,
(A) obtaining a first image in which the object is imaged by the first imaging device and a second image in which the object is imaged by the second imaging device;
(B) estimating calibration parameters for calibrating the first image and the second image based on positions of corresponding points of features common to the first image and the second image, and
In the step (b),
While updating the position of the calibration parameter and the corresponding point, calculated from an evaluation function including a term representing a change amount before and after the update of the calibration parameter and a term representing a change amount before and after the update of the position of the corresponding point The calibration parameter is estimated by repeatedly calculating and optimizing the evaluation value.
Estimation method.
JP2018034510A 2018-02-28 2018-02-28 Distance measuring device and calibration parameter estimation method Active JP7099832B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018034510A JP7099832B2 (en) 2018-02-28 2018-02-28 Distance measuring device and calibration parameter estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018034510A JP7099832B2 (en) 2018-02-28 2018-02-28 Distance measuring device and calibration parameter estimation method

Publications (2)

Publication Number Publication Date
JP2019148548A true JP2019148548A (en) 2019-09-05
JP7099832B2 JP7099832B2 (en) 2022-07-12

Family

ID=67850558

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018034510A Active JP7099832B2 (en) 2018-02-28 2018-02-28 Distance measuring device and calibration parameter estimation method

Country Status (1)

Country Link
JP (1) JP7099832B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012075060A (en) * 2010-09-30 2012-04-12 Hitachi Automotive Systems Ltd Image processing device, and imaging device using the same
JP2016200557A (en) * 2015-04-14 2016-12-01 国立大学法人東京工業大学 Calibration device, distance measurement apparatus and calibration method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012075060A (en) * 2010-09-30 2012-04-12 Hitachi Automotive Systems Ltd Image processing device, and imaging device using the same
JP2016200557A (en) * 2015-04-14 2016-12-01 国立大学法人東京工業大学 Calibration device, distance measurement apparatus and calibration method

Also Published As

Publication number Publication date
JP7099832B2 (en) 2022-07-12

Similar Documents

Publication Publication Date Title
CN107633536B (en) Camera calibration method and system based on two-dimensional plane template
JP6415066B2 (en) Information processing apparatus, information processing method, position and orientation estimation apparatus, robot system
US8786700B2 (en) Position and orientation measurement apparatus, position and orientation measurement method, and storage medium
JP4814669B2 (en) 3D coordinate acquisition device
JP2010258628A5 (en)
JP2011172226A (en) Method and system for obtaining point spread function using motion information, and computer program
JP2012202694A5 (en)
JP6413595B2 (en) Image processing apparatus, system, image processing method, and program
CN110390690B (en) Depth map processing method and device
CN110400340B (en) Depth map processing method and device
CN110400343B (en) Depth map processing method and device
JP2014074632A (en) Calibration apparatus of in-vehicle stereo camera and calibration method
CN110400331B (en) Depth map processing method and device
CN110378853B (en) Depth map processing method and device
JP2021106025A5 (en)
WO2017094140A1 (en) Object detection device and object detection method
US10914572B2 (en) Displacement measuring apparatus and displacement measuring method
JP7099832B2 (en) Distance measuring device and calibration parameter estimation method
JP6867487B2 (en) Imaging device
JP6207311B2 (en) Image processing apparatus, control method thereof, and control program
JP2020201587A (en) Imaging apparatus, vehicle, and program
CN114034303A (en) Moving target object positioning method and device based on Kalman filtering
US11830206B2 (en) Stereo camera apparatus and control device
JP2020201586A (en) Imaging apparatus, vehicle, and program
CN117109634A (en) Airborne heterogeneous sensor deviation calibration method, medium and terminal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220630

R150 Certificate of patent or registration of utility model

Ref document number: 7099832

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150