JP2020107938A - Camera calibration device, camera calibration method, and program - Google Patents

Camera calibration device, camera calibration method, and program Download PDF

Info

Publication number
JP2020107938A
JP2020107938A JP2018242240A JP2018242240A JP2020107938A JP 2020107938 A JP2020107938 A JP 2020107938A JP 2018242240 A JP2018242240 A JP 2018242240A JP 2018242240 A JP2018242240 A JP 2018242240A JP 2020107938 A JP2020107938 A JP 2020107938A
Authority
JP
Japan
Prior art keywords
camera
vehicle
road surface
cameras
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018242240A
Other languages
Japanese (ja)
Other versions
JP7137464B2 (en
Inventor
英樹 白井
Hideki Shirai
英樹 白井
博彦 柳川
Hirohiko Yanagawa
博彦 柳川
田中 仁
Hitoshi Tanaka
仁 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Denso IT Laboratory Inc
Original Assignee
Denso Corp
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Denso IT Laboratory Inc filed Critical Denso Corp
Priority to JP2018242240A priority Critical patent/JP7137464B2/en
Publication of JP2020107938A publication Critical patent/JP2020107938A/en
Application granted granted Critical
Publication of JP7137464B2 publication Critical patent/JP7137464B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide a device performing calibration of the heights and the angles of multiple cameras.SOLUTION: A camera calibration device 1 includes a road surface flow extraction part 13 for extracting a flow between frames of a feature point in the road surface region of images captured by multiple cameras 22, a vehicle travel calculation part 11 for calculating vehicle rotation amount and travel between frames in a vehicle coordinate system from the vehicle sensor signal, a homography matrix calculation part 12 for calculating a homography matrix by using camera posture and camera height position of each camera in a vehicle coordinate system obtained by the previous time, and a parameter update part 14 for finding an optimum solution of camera posture, camera height of multiple cameras and vehicle movement parameters, so that the position of the feature point converted by the homography matrix matches the flow of the feature point found in the road surface flow extraction part, in the image of each camera.SELECTED DRAWING: Figure 1

Description

本発明は、車に搭載されたカメラの路面に対する高さおよび角度のキャリブレーション方法に関する。 The present invention relates to a method of calibrating a height and an angle of a camera mounted on a vehicle with respect to a road surface.

従来から、車両に搭載された複数台のカメラの映像を利用して、車両周辺を上から見たような画像(鳥瞰画像)を提供する技術がある(特許文献1)。複数台のカメラ画像から鳥瞰画像を合成するためには、各カメラと路面の関係(カメラの位置と角度)を知る必要がある。 2. Description of the Related Art Conventionally, there is a technique of providing an image (bird's-eye view image) of a vehicle surroundings viewed from above by using images of a plurality of cameras mounted on the vehicle (Patent Document 1). In order to synthesize a bird's-eye view image from a plurality of camera images, it is necessary to know the relationship between each camera and the road surface (camera position and angle).

カメラの路面に対する位置や角度の推定(本書では「キャリブレーション」という)方法としては、工場の敷地内に規定のキャリブレーション用のボードや白線などを配置しておき、カメラでそれらを撮影した後に、既知のボードや白線などの位置情報に基づいてキャリブレーションを行う方法があった(特許文献2)。しかし、これらは最初の一度しかキャリブレーションを行わないため、例えば実際の走行時に、乗員や荷物の重みなどによって車両が傾いていたりすると、正しい鳥瞰画像が得られないなどの問題がある。 As a method of estimating the position and angle of the camera with respect to the road surface (referred to as "calibration" in this manual), place a prescribed calibration board or white line on the factory premises, and after shooting them with the camera There is a method of performing calibration based on position information of a known board or white line (Patent Document 2). However, since these are calibrated only once at the beginning, there is a problem that a correct bird's-eye view image cannot be obtained, for example, when the vehicle leans due to the weight of an occupant or luggage during actual traveling.

こうした問題を解決するために、走行中にキャリブレーションを行う方法も提案されている(特許文献3)。特許文献3では、カメラに映る路面のフローを入力としてホモグラフィー行列を推定し、それを分解することでカメラ姿勢と高さを推定する。 In order to solve such a problem, a method of performing calibration during traveling has also been proposed (Patent Document 3). In Patent Document 3, a homography matrix is estimated using the flow of the road surface reflected on the camera as an input, and the camera posture and height are estimated by decomposing the homography matrix.

特開2007−183877JP2007-183877A 特開2012−015576JP2012-015576A 特開2014−101075JP, 2014-101075, A

特許文献3に記載された方法は、4つ以上の路面上のフロー(対応づけられた特徴点)からホモグラフィー行列を計算し、それをまずフレーム間のカメラ回転行列Rcと移動ベクトルTcに分解した後、カメラ姿勢(角度)とカメラ高さを計算する。特許文献3に記載された方法は、フレーム間のカメラ回転行列Rcが単位行列(車両は直進している)であるという制約がある。 The method described in Patent Document 3 calculates a homography matrix from four or more flows (corresponding feature points) on the road surface, and first decomposes it into a camera rotation matrix Rc and a movement vector Tc between frames. After that, the camera posture (angle) and the camera height are calculated. The method described in Patent Document 3 has a constraint that the camera rotation matrix Rc between frames is a unit matrix (the vehicle is traveling straight).

また、特許文献3に記載された方法では、最初に得られたフレーム間のカメラ回転行列Rcと移動ベクトルTcを分解してカメラ姿勢(角度)とカメラ高さを求めるので、RcとTcの推定誤差の影響を受けやすく精度の低下が懸念される。また、複数のカメラのキャリブレーションを行う場合には、各カメラ間でのキャリブレーション結果が整合しないこともあった。 In the method described in Patent Document 3, the camera rotation matrix Rc and the movement vector Tc between the frames obtained first are decomposed to obtain the camera posture (angle) and the camera height. Therefore, the estimation of Rc and Tc is performed. It is susceptible to errors and there is concern that the accuracy may drop. Further, when the calibration of a plurality of cameras is performed, the calibration result between the cameras may not match.

本発明は、上記背景に鑑み、複数のカメラの高さおよび角度のキャリブレーションを行う装置を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object thereof is to provide an apparatus for calibrating heights and angles of a plurality of cameras.

本発明のカメラキャリブレーション装置は、車両に搭載された複数のカメラi(1≦i≦M)のキャリブレーションを行う装置であって、前記複数のカメラiにて撮影した画像中の路面領域にある特徴点のフレーム間におけるフローを抽出する路面フロー抽出部と、車両センサ信号を受信する受信部と、前記車両センサ信号から車両座標系における前記フレーム間の車両回転量Rvおよび移動量Cvを計算する車両移動量計算部と、前記車両回転量Rvおよび移動量Cvを、前時刻までに得られた車両座標系における各カメラiのカメラ姿勢Rciおよびカメラ位置Cciを用いて、前記各カメラiの座標系における前記フレーム間のカメラ回転量Riおよび移動量Ciに変換し、ホモグラフィー行列Hiを計算するホモグラフィー行列計算部と、前記各カメラiの画像において、ホモグラフィー行列Hiによって変換される特徴点の位置が前記路面フロー抽出部で求めた特徴点のフローと整合するように、各カメラiのカメラ姿勢Rciおよびカメラ高さhciと車両移動パラメータの最適解を求めるパラメータ更新部とを備える。 A camera calibration device of the present invention is a device for calibrating a plurality of cameras i (1 ≤ i ≤ M) mounted on a vehicle, and is provided on a road surface area in an image captured by the plurality of cameras i. A road surface flow extraction unit that extracts a flow between frames of a certain characteristic point, a reception unit that receives a vehicle sensor signal, and a vehicle rotation amount Rv and a movement amount Cv between the frames in the vehicle coordinate system from the vehicle sensor signal. And the vehicle rotation amount Rv and the movement amount Cv for each camera i using the camera posture Rci and the camera position Cci of each camera i in the vehicle coordinate system obtained up to the previous time. A homography matrix calculation unit that converts the camera rotation amount Ri and the movement amount Ci between frames in the coordinate system to calculate a homography matrix Hi, and a feature that is converted by the homography matrix Hi in the image of each camera i. A parameter updating unit that obtains an optimum solution of the camera posture Rci and camera height hci of each camera i and the vehicle movement parameter is provided so that the position of the point matches the flow of the characteristic points obtained by the road surface flow extraction unit.

また、キャリブレーション前の前記複数のカメラiのカメラ姿勢Rciおよび位置Cciのデータを記憶した記憶部を備え、前記パラメータ更新部は、前記記憶部から読み出したカメラ姿勢Rciおよび高さhciを初期値として前記最適解を求め、求めた各カメラiのカメラ姿勢Rciおよびカメラ高さhciの最適解によって前記記憶部のデータを更新してもよい。ここで、カメラ位置Cciは、車両座標系におけるカメラのxyz座標であり、カメラ高さhciは、車両座標系におけるカメラの高さである。つまり、カメラ位置Cciが分かればカメラ高さhciが分かる。 In addition, the storage unit stores the data of the camera postures Rci and the positions Cci of the plurality of cameras i before calibration, and the parameter updating unit sets the camera postures Rci and the heights hci read from the storage units to initial values. Alternatively, the optimum solution may be obtained, and the data in the storage unit may be updated with the obtained optimum solution of the camera posture Rci and the camera height hci of each camera i. Here, the camera position Cci is the xyz coordinate of the camera in the vehicle coordinate system, and the camera height hci is the height of the camera in the vehicle coordinate system. That is, if the camera position Cci is known, the camera height hci can be known.

この構成により、各カメラiの画像において、ホモグラフィー行列Hiで変換された特徴点の位置と、路面フロー抽出部で求めたフローとが整合するように、カメラパラメータだけでなく、車両移動パラメータの最適解を求めるので、車両センサの信号に誤差が含まれていたり、車両運動モデルが想定と異なる場合にも、適切にカメラパラメータのキャリブレーションを行うことができる。ここで、車両移動パラメータは、フレーム間の車両回転ピッチ角v,ヨー角v,ロール角v,及びxyz移動量v,v,vである。車両移動パラメータのすべてを更新してもよいし、例えば、平面上の2次元運動を仮定して、フレーム間の車両回転ヨー角v,水平方向の移動量v,vのみを更新してもよい。 With this configuration, in the image of each camera i, not only camera parameters but also vehicle movement parameters are set so that the positions of the feature points converted by the homography matrix Hi and the flow obtained by the road surface flow extraction unit match. Since the optimum solution is obtained, the camera parameters can be appropriately calibrated even when the signal of the vehicle sensor includes an error or the vehicle motion model is different from the expected one. Here, the vehicle movement parameters are the vehicle rotation pitch angle v p , the yaw angle v y , the roll angle v r , and the xyz movement amounts v X , v Y , v Z between the frames. All the vehicle movement parameters may be updated, or, for example, assuming a two-dimensional motion on a plane, only the vehicle rotation yaw angle v y between the frames and the horizontal movement amounts v X and v Z are updated. May be.

本発明のカメラキャリブレーション装置は、車両に搭載された複数のカメラi(1≦i≦M)のキャリブレーションを行う装置であって、前記複数のカメラiにて撮影した画像中の路面領域にある特徴点のフレーム間におけるフローを抽出する路面フロー抽出部と、車両センサ信号を受信する受信部と、前記車両センサ信号から車両座標系における前記フレーム間の車両回転量Rvおよび移動量Cvを計算する車両移動量計算部と、前記車両回転量Rvおよび前記移動量Cvから求まる前記各カメラiにおける前記特徴点のフローと、前記路面フロー抽出部で求めた特徴点のフローとが整合するように、車両移動パラメータおよびカメラパラメータの最適解を求めるパラメータ更新部とを備える。この構成により、車両センサの信号に誤差が含まれていたり、車両運動モデルが想定と異なる場合にも、適切にカメラパラメータのキャリブレーションを行うことができる。 A camera calibration device of the present invention is a device for calibrating a plurality of cameras i (1 ≤ i ≤ M) mounted on a vehicle, and is provided on a road surface area in an image captured by the plurality of cameras i. A road surface flow extraction unit that extracts a flow between frames of a certain feature point, a reception unit that receives a vehicle sensor signal, and a vehicle rotation amount Rv and a movement amount Cv between the frames in the vehicle coordinate system from the vehicle sensor signal. So that the flow of the characteristic point in each camera i obtained from the vehicle rotation amount Rv and the movement amount Cv and the flow of the characteristic point obtained by the road surface flow extraction unit are matched. , A parameter updating unit that obtains optimum solutions of vehicle movement parameters and camera parameters. With this configuration, the camera parameter can be appropriately calibrated even if the signal of the vehicle sensor includes an error or the vehicle motion model is different from the assumed one.

本発明のカメラキャリブレーション装置は、前記車両センサ信号に基づいて車両が直進していると判定された場合には、前記パラメータ更新部は、前記車両センサ信号から求められる前記車両回転量Rvおよび移動量Cvが正解であるとして、前記カメラパラメータの最適解を求めてもよい。車両が直進している場合には車両センサ信号の誤差が小さいと考えられるので、車両センサ信号から求められる車両回転量Rvおよび移動量Cvが正解であるとして、カメラパラメータの最適解を容易に求めることができる。 In the camera calibration device of the present invention, when it is determined that the vehicle is traveling straight on the basis of the vehicle sensor signal, the parameter updating unit causes the vehicle rotation amount Rv and the movement obtained from the vehicle sensor signal. The optimum solution of the camera parameters may be obtained assuming that the quantity Cv is the correct solution. When the vehicle is traveling straight ahead, it is considered that the error of the vehicle sensor signal is small. Therefore, assuming that the vehicle rotation amount Rv and the movement amount Cv obtained from the vehicle sensor signal are correct, the optimum solution of the camera parameter is easily obtained. be able to.

本発明のカメラキャリブレーション装置において、前記パラメータ更新部は、前記カメラパラメータの最適解を求めた後に、当該カメラパラメータが正解であるとして、前記車両移動パラメータの最適解を求めてもよい。この構成により、車両移動パラメータの補正を行うことができる。 In the camera calibration device of the present invention, the parameter updating unit may obtain an optimal solution of the vehicle parameter after determining an optimal solution of the camera parameter, assuming that the camera parameter is a correct solution. With this configuration, the vehicle movement parameter can be corrected.

本発明のカメラキャリブレーション装置は、前記車両センサ信号に基づいて前記車両が走行した軌跡を求め、当該軌跡およびカメラ姿勢Rciおよび位置Cciに基づいて前記路面領域を特定し、その路面領域に基づいて路面フローを抽出してもよい。自車が走行してきた領域は、すなわち車や人などの障害物、歩道の路側などの段差などが存在しない領域といえる。このように自車が走行してきた軌跡を利用して路面領域を特定する構成により、路面以外の不要な物体から抽出されるフローを回避し、路面に含まれる特徴点のみを正しく抽出し、そのフローを求めることができる。 A camera calibration device of the present invention obtains a trajectory along which the vehicle has traveled based on the vehicle sensor signal, identifies the road surface area based on the trajectory and camera attitude Rci and position Cci, and based on the road surface area. The road surface flow may be extracted. It can be said that the area in which the vehicle has traveled is an area in which there are no obstacles such as cars or people, or steps on the side of a sidewalk. In this way, by using the trajectory that the vehicle has traveled to identify the road surface area, the flow extracted from unnecessary objects other than the road surface is avoided, and only the feature points included in the road surface are correctly extracted. You can ask for the flow.

本発明のカメラキャリブレーション装置は、前記複数のカメラiで撮影された画像に基づいて、いずれかのカメラのピッチ軸回りの所定の閾値以上の変動を検知するピッチ変動検知部を備え、前記ピッチ変動検知部にて、所定の閾値以上の変動を検知したときに、当該変動の際に撮影された画像をキャリブレーションの処理から除外してもよい。この構成により、例えば、路面に凹凸がある場合や路面が平面でない場合に撮影された画像は、カメラキャリブレーションの処理から除外できるので、精度の向上が期待できる。 A camera calibration device of the present invention includes a pitch fluctuation detection unit that detects a fluctuation of a pitch axis of one of the cameras, which is equal to or more than a predetermined threshold value, based on images captured by the plurality of cameras i. When the fluctuation detecting unit detects a fluctuation equal to or larger than a predetermined threshold value, the image captured during the fluctuation may be excluded from the calibration process. With this configuration, for example, an image taken when the road surface has irregularities or when the road surface is not a flat surface can be excluded from the camera calibration process, and therefore improvement in accuracy can be expected.

本発明のカメラキャリブレーション装置は、前記受信部にて受信した車両センサ信号に基づいて車両が加速しているか否かを判定し、前記パラメータ更新部は、車両が加速している際に撮影された画像をキャリブレーションの処理から除外してもよい。車両が加速または減速している(すなわちマイナスの加速をしている)ときには、ピッチ変動が発生しやすいが、本発明の構成により、例えば、ピッチ変動しやすいときに撮影されたカメラ画像をカメラキャリブレーションの処理から除外できるので、精度の向上が期待できる。 The camera calibration device of the present invention determines whether or not the vehicle is accelerating based on the vehicle sensor signal received by the receiving unit, and the parameter updating unit is imaged when the vehicle is accelerating. The captured image may be excluded from the calibration process. When the vehicle is accelerating or decelerating (that is, negative acceleration), the pitch fluctuation is likely to occur. With the configuration of the present invention, for example, a camera image captured when the pitch fluctuation easily occurs is camera calibration. Since it can be excluded from the processing of the application, improvement in accuracy can be expected.

本発明のカメラキャリブレーション方法は、車両に搭載された複数のカメラi(1≦i≦M)のキャリブレーションを行う方法であって、前記複数のカメラiにて撮影した画像中の路面領域にある特徴点のフレーム間におけるフローを抽出するステップと、車両センサ信号を受信するステップと、前記車両センサ信号から車両座標系における前記フレーム間の車両回転量Rvおよび移動量Cvを計算するステップと、前記車両回転量Rvおよび移動量Cvを、前時刻までに得られた車両座標系における各カメラiのカメラ姿勢Rciおよびカメラ位置Cciを用いて、前記各カメラiの座標系における前記フレーム間のカメラ回転量Riおよび移動量Ciに変換し、ホモグラフィー行列Hiを計算するステップと、前記各カメラiの画像において、ホモグラフィー行列Hiによって変換される特徴点の位置が前記特徴点のフローと整合するように、複数のカメラi(1≦i≦M)のカメラ姿勢Rciおよびカメラ高さhciと車両移動パラメータの最適解を求めるステップとを備える。 A camera calibration method of the present invention is a method for calibrating a plurality of cameras i (1≦i≦M) mounted on a vehicle, and a method for calibrating a road surface area in an image captured by the plurality of cameras i. Extracting a flow between frames of a certain characteristic point, receiving a vehicle sensor signal, calculating a vehicle rotation amount Rv and a movement amount Cv between the frames in the vehicle coordinate system from the vehicle sensor signal, The vehicle rotation amount Rv and the movement amount Cv are calculated by using the camera posture Rci and the camera position Cci of each camera i in the vehicle coordinate system obtained up to the previous time, and the camera between the frames in the coordinate system of each camera i. Converting into a rotation amount Ri and a movement amount Ci and calculating a homography matrix Hi; and in the image of each camera i, the positions of the feature points converted by the homography matrix Hi match the flow of the feature points. Thus, the method includes a step of obtaining an optimum solution of the camera attitude Rci and the camera height hci of the plurality of cameras i (1≦i≦M) and the vehicle movement parameter.

本発明のプログラムは、車両に搭載された複数のカメラi(1≦i≦M)のキャリブレーションを行うためのプログラムであって、コンピュータに、前記複数のカメラiにて撮影した画像中の路面領域にある特徴点のフレーム間におけるフローを抽出するステップと、車両センサ信号を受信するステップと、前記車両センサ信号から車両座標系における前記フレーム間の車両回転量Rvおよび移動量Cvを計算するステップと、前記車両回転量Rvおよび移動量Cvを、前時刻までに得られた車両座標系における各カメラiのカメラ姿勢Rciおよびカメラ位置Cciを用いて、前記各カメラiの座標系における前記フレーム間のカメラ回転量Riおよび移動量Ciに変換し、ホモグラフィー行列Hiを計算するステップと、前記各カメラiの画像において、ホモグラフィー行列Hiによって変換される特徴点の位置が前記特徴点のフローと整合するように、複数のカメラi(1≦i≦M)のカメラ姿勢Rciおよびカメラ高さhciと車両移動パラメータの最適解を求めるステップとを実行させる。 A program of the present invention is a program for calibrating a plurality of cameras i (1 ≤ i ≤ M) mounted on a vehicle, and a computer program for a road surface in an image captured by the plurality of cameras i. A step of extracting a flow of feature points in a region between frames, a step of receiving a vehicle sensor signal, and a step of calculating a vehicle rotation amount Rv and a movement amount Cv between the frames in the vehicle coordinate system from the vehicle sensor signal. And the vehicle rotation amount Rv and the movement amount Cv between the frames in the coordinate system of each camera i using the camera posture Rci and the camera position Cci of each camera i in the vehicle coordinate system obtained up to the previous time. Of the camera rotation amount Ri and the movement amount Ci to calculate the homography matrix Hi, and the position of the feature point converted by the homography matrix Hi in the image of each camera i is the flow of the feature point. In order to match, a step of obtaining an optimum solution of the camera posture Rci and the camera height hci of the plurality of cameras i (1≦i≦M) and the vehicle movement parameter is executed.

本発明によれば、複数のカメラのカメラパラメータのキャリブレーションを適切に行うことができる。 According to the present invention, camera parameters of a plurality of cameras can be properly calibrated.

第1の実施の形態のカメラキャリブレーション装置の構成を示す図である。It is a figure which shows the structure of the camera calibration apparatus of 1st Embodiment. アッカーマンモデルによるカメラ移動量の計算例を示す図である。It is a figure which shows the example of calculation of the camera movement amount by an Ackerman model. 車両座標系とカメラ座標系の違いを説明するための図である。It is a figure for demonstrating the difference of a vehicle coordinate system and a camera coordinate system. 車両座標系とカメラ座標系の変換式の導出方法について説明するための図である。It is a figure for demonstrating the derivation|leading-out method of the conversion formula of a vehicle coordinate system and a camera coordinate system. ホモグラフィー行列Hiの計算の仕方を示す図である。It is a figure which shows how to calculate the homography matrix Hi. パラメータ更新部によるパラメータ更新処理の原理を示す図である。It is a figure which shows the principle of the parameter update process by the parameter update part. ヤコビアン行列の統合の仕方を示す模式図である。It is a schematic diagram which shows the method of integrating a Jacobian matrix. 第1の実施の形態のカメラキャリブレーション装置の動作を示すフローチャートである。3 is a flowchart showing the operation of the camera calibration device according to the first embodiment. 第2の実施の形態のカメラキャリブレーション装置の構成を示す図である。It is a figure which shows the structure of the camera calibration apparatus of 2nd Embodiment. 第2の実施の形態のカメラキャリブレーション装置の動作を示すフローチャートである。It is a flowchart which shows operation|movement of the camera calibration apparatus of 2nd Embodiment. 第3の実施の形態のカメラキャリブレーション装置の構成を示す図である。It is a figure which shows the structure of the camera calibration apparatus of 3rd Embodiment. 第4の実施の形態のカメラキャリブレーション装置の構成を示す図である。It is a figure which shows the structure of the camera calibration apparatus of 4th Embodiment.

以下、本発明の実施の形態のカメラキャリブレーション装置について説明する。
(第1の実施の形態)
図1は、第1の実施の形態のカメラキャリブレーション装置1の構成を示す図である。カメラキャリブレーション装置1は、車両に搭載された複数のカメラの姿勢および路面からの高さのキャリブレーションを行う。カメラキャリブレーション装置1は、キャリブレーション対象の複数のカメラ22と接続されており、複数のカメラ22にて撮影された画像を取得する。また、カメラキャリブレーション装置1は、車載エリアネットワーク(CAN)21に接続されており、CAN21から車両センサ信号を受信する。
The camera calibration device according to the embodiment of the present invention will be described below.
(First embodiment)
FIG. 1 is a diagram showing a configuration of a camera calibration device 1 according to the first embodiment. The camera calibration device 1 calibrates the postures of a plurality of cameras mounted on the vehicle and the height from the road surface. The camera calibration device 1 is connected to a plurality of cameras 22 to be calibrated, and acquires images captured by the plurality of cameras 22. The camera calibration device 1 is also connected to an in-vehicle area network (CAN) 21 and receives a vehicle sensor signal from the CAN 21.

カメラキャリブレーション装置1は、車両センサ信号を受信する受信部10と、車両移動量計算部11と、ホモグラフィー行列計算部12と、路面フロー抽出部13と、パラメータ更新部14と、パラメータ記憶部15とを有している。 The camera calibration device 1 includes a reception unit 10 that receives a vehicle sensor signal, a vehicle movement amount calculation unit 11, a homography matrix calculation unit 12, a road surface flow extraction unit 13, a parameter update unit 14, and a parameter storage unit. 15 and.

受信部10は、車両センサ信号として、タイヤ切れ角θ、後輪中心位置の移動量distのデータを受信する。車両移動量計算部11は、アッカーマンモデルに基づいて、車両回転量と移動量を求める。 The receiving unit 10 receives, as the vehicle sensor signal, data on the tire turning angle θ t and the movement amount dist of the rear wheel center position. The vehicle movement amount calculation unit 11 obtains the vehicle rotation amount and the movement amount based on the Ackermann model.

図2は、アッカーマンモデルによる車両回転量及び移動量の計算例を示す図である。本実施の形態では、説明の便宜上、車両移動量計算部11は、時刻tから時刻t−1の間における車両回転量Rvと移動量Cvを求めるものとする。ここで求められる車両回転量Rvと移動量Cvは、車両座標系において定義された値である。

Figure 2020107938
FIG. 2 is a diagram showing a calculation example of the vehicle rotation amount and the movement amount by the Ackerman model. In the present embodiment, for convenience of explanation, the vehicle movement amount calculation unit 11 determines the vehicle rotation amount Rv and the movement amount Cv from time t to time t-1. The vehicle rotation amount Rv and the movement amount Cv obtained here are values defined in the vehicle coordinate system.

Figure 2020107938

図3は、車両座標系とカメラ座標系の違いを説明するための図である。車両座標系の原点Oは後輪中心位置の路面上にあり、車両後方向きにZ軸、垂直下向きにY軸、Z軸に向かって右向きにX軸が定義される。これに対してカメラ座標系は、原点はカメラ中心にあり、車両座標系のZ軸がカメラの光軸向きがZ軸と一致するように、車両座標系を回転したものである。 FIG. 3 is a diagram for explaining the difference between the vehicle coordinate system and the camera coordinate system. Origin O of the vehicle coordinate system is on the road surface of the rear wheel center position, Z v axis rearward facing, Y v axes vertically downward, X v-axis is defined on the right direction in the Z v axis. On the other hand, in the camera coordinate system, the origin is located at the center of the camera, and the vehicle coordinate system is rotated so that the Z axis of the vehicle coordinate system and the optical axis direction of the camera coincide with the Z c axis.

ホモグラフィー行列計算部12は、各カメラ22におけるホモグラフィー行列を計算する機能を有する。以下の説明では、図1に示した複数のカメラ22をカメラi(1≦i≦M)という。各カメラiにおけるホモグラフィー行列Hi(3×3行列)は、次式で計算される。

Figure 2020107938
ここで、Riはフレーム間のカメラ回転量(3×3行列)、Ciはフレーム間のカメラ移動量(3×1ベクトル)、niは路面法線(3×1ベクトル)、hi(スカラ)は路面からのカメラ高さを表す。これらはいずれもカメラiのカメラ座標系で定義された値である。つまり、ホモグラフィー行列Hiは、カメラiの台数だけ存在する。 The homography matrix calculation unit 12 has a function of calculating a homography matrix in each camera 22. In the following description, the plurality of cameras 22 shown in FIG. 1 will be referred to as camera i (1≦i≦M). The homography matrix Hi (3×3 matrix) in each camera i is calculated by the following equation.
Figure 2020107938
Here, Ri is the camera rotation amount between frames (3×3 matrix), Ci is the camera movement amount between frames (3×1 vector), ni is the road surface normal (3×1 vector), and hi (scalar) is Shows the height of the camera from the road surface. All of these are values defined in the camera coordinate system of camera i. That is, there are as many homography matrices Hi as there are cameras i.

車両センサ信号に基づいてアッカーマンモデルで求められる車両回転量Rv、車両移動量Cvは車両座標系で定義された後輪中心位置の移動量であるため、これらのパラメータをそのまま使ってホモグラフィー行列Hiを求めることはできない。そこで、本実施の形態のカメラキャリブレーション装置1では、次のように座標系の変換を行うことにより、車両座標系の車両回転量Rvおよび移動量Cvを各カメラ座標系における各カメラの回転量Ri、移動量Ciに変換し、ホモグラフィー行列Hiに適用できるように工夫をしている。これにより、車両センサ信号から求まった車両回転量Rvおよび移動量Cvをキャリブレーションに用いることができる。

Figure 2020107938
Since the vehicle rotation amount Rv and the vehicle movement amount Cv obtained by the Ackerman model based on the vehicle sensor signal are the movement amounts of the rear wheel center positions defined in the vehicle coordinate system, these parameters are used as they are for the homography matrix Hi. Can't ask. Therefore, in the camera calibration device 1 of the present embodiment, the vehicle rotation amount Rv and the movement amount Cv of the vehicle coordinate system are converted into the rotation amount of each camera in each camera coordinate system by converting the coordinate system as follows. It is devised so that it can be converted into Ri and the movement amount Ci and applied to the homography matrix Hi. Accordingly, the vehicle rotation amount Rv and the movement amount Cv obtained from the vehicle sensor signal can be used for calibration.
Figure 2020107938

上式において、Rciが求めるべきカメラ姿勢のパラメータ(ヨー角、ピッチ角、ロール角)からなる行列(3×3)であり、hciが求めるべき高さのパラメータである。ヨー角θy、ピッチ角θp、ロール角θrとしたとき、例えばRciは以下の式で表される。

Figure 2020107938
In the above equation, Rci is a matrix (3×3) consisting of parameters (yaw angle, pitch angle, roll angle) of the camera attitude to be obtained, and hci is a parameter of the height to be obtained. Assuming yaw angle θy, pitch angle θp, and roll angle θr, for example, Rci is represented by the following formula.
Figure 2020107938

図4は、上式(4)〜(7)の導出方法について説明するための図である。図4は、時刻t−1と時刻tにおけるカメラ座標系Xciと車両座標系Xvとを変換する際の変換行列を示す図である。例えば、時刻t−1のカメラ座標系Xci(t-1)を時刻tのカメラ座標系Xci(t)に変換するには、時刻t−1のカメラ座標系Xci(t-1)に変換行列Tiを乗じることを示している。 FIG. 4 is a diagram for explaining a method of deriving the above equations (4) to (7). FIG. 4 is a diagram showing a conversion matrix when converting the camera coordinate system Xci and the vehicle coordinate system Xv at time t−1 and time t. For example, to convert the camera coordinate system Xci(t-1) at time t-1 into the camera coordinate system Xci(t) at time t, the conversion matrix to the camera coordinate system Xci(t-1) at time t-1 It is shown to be multiplied by Ti.

時刻tのカメラ座標系Xci(t)を時刻t−1のカメラ座標系Xci(t-1)で表す際には、図4の右回りと左回りの両方で表現することができ、これを式で表すと、次式のようになる。

Figure 2020107938
ここで、
Figure 2020107938
であることから、
Figure 2020107938
となり、上式(4)〜(7)が得られる。 When the camera coordinate system Xci(t) at time t is represented by the camera coordinate system Xci(t-1) at time t-1, it can be represented both clockwise and counterclockwise in FIG. It can be expressed by the following equation.
Figure 2020107938
here,
Figure 2020107938
Because
Figure 2020107938
And the above equations (4) to (7) are obtained.

図5は、ホモグラフィー行列Hiの計算の仕方を示す図である。図5に示すように車両センサからCAN信号を受信すると、車両移動量計算部11にて、車両座標系における車両回転量Rvと、車両移動量Cvを計算する。また、現在のカメラパラメータに基づいて、車両座標系をカメラiのカメラ座標系に変換する回転行列Rciを計算し、この回転行列Rciと位置Cci(と高さhci)を用いてホモグラフィー行列Hiを計算する。 FIG. 5 is a diagram showing how to calculate the homography matrix Hi. When the CAN signal is received from the vehicle sensor as shown in FIG. 5, the vehicle movement amount calculation unit 11 calculates the vehicle rotation amount Rv and the vehicle movement amount Cv in the vehicle coordinate system. Further, based on the current camera parameters, a rotation matrix Rci for converting the vehicle coordinate system into the camera coordinate system of the camera i is calculated, and using this rotation matrix Rci and the position Cci (and the height hci), the homography matrix Hi. To calculate.

パラメータ記憶部15には、各カメラiの姿勢Rciおよび位置Cciのデータが記憶されている。記憶されているのは、キャリブレーション前のデータである。本実施の形態のカメラキャリブレーション装置1によるキャリブレーションがまだ行われていないときには、出荷時に計測されたカメラの姿勢および位置のデータが記憶されている。 The parameter storage unit 15 stores the data of the posture Rci and the position Cci of each camera i. What is stored is the data before calibration. When the calibration by the camera calibration device 1 of the present embodiment is not yet performed, the data of the attitude and position of the camera measured at the time of shipping are stored.

路面フロー抽出部13は、各カメラiにて取得した画像中の路面領域にある特徴点のフローを抽出する。時刻t−1から時刻tまでの間に、路面上にある特徴点がどのように移動したかを求める。路面領域にある特徴点は、例えば、アスファルトのテクスチャ(模様)や道路標示のコーナ点等である。 The road surface flow extraction unit 13 extracts a flow of feature points in the road surface area in the image acquired by each camera i. From the time t−1 to the time t, how the feature points on the road surface move is obtained. The feature points in the road surface area are, for example, asphalt texture (pattern), corner points of road markings, and the like.

パラメータ更新部14は、パラメータ記憶部15に記憶されているカメラパラメータを更新すると共に、車両移動パラメータを更新する。パラメータ更新部14は、各カメラiの画像において、ホモグラフィー行列Hiによって変換される特徴点の位置が、路面フロー抽出部13で求めた特徴点のフローと整合するように、車両移動パラメータ(ピッチ角v,ヨー角v,ロール角v,XYZ移動量v,v,v)およびカメラパラメータ(姿勢ピッチ角θp,ヨー角θy,ロール角θr,高さh)の最適解を求める機能を有する。 The parameter updating unit 14 updates the camera parameters stored in the parameter storage unit 15 and also updates the vehicle movement parameters. The parameter updating unit 14 adjusts the vehicle movement parameter (pitch) so that the position of the feature point converted by the homography matrix Hi in the image of each camera i matches the flow of the feature point obtained by the road surface flow extracting unit 13. Angle v p , yaw angle v y , roll angle v r , XYZ movement amounts v X , v Y , v Z ) and camera parameters (posture pitch angle θp, yaw angle θy, roll angle θr, height h) optimal solutions Has the function of seeking.

図6は、パラメータ更新部14によるパラメータ更新処理の原理を示す図である。図6における点uipast、点uinow及び点uipredは、カメラiのカメラ画像上の点を示す。点uipastは時刻t−1における特徴点の位置を示し、点uinowは時刻tにおける特徴点の位置を示している。特徴点が点uipastが点uinowに移動したことは、路面フロー抽出部13による路面フローの抽出結果から分かる。 FIG. 6 is a diagram showing the principle of parameter updating processing by the parameter updating unit 14. A point ui past , a point ui now, and a point ui pred in FIG. 6 indicate points on the camera image of the camera i. The point ui past indicates the position of the characteristic point at time t−1, and the point ui now indicates the position of the characteristic point at time t. It can be seen from the road surface flow extraction result by the road surface flow extraction unit 13 that the feature point has moved from the point ui past to the point ui now .

点uipredは、時刻t−1における点uipastにホモグラフィー行列Hiを適用して求めた特徴点の予測位置を示している。具体的には、次式によって点uipredを求める。

Figure 2020107938
ここで、k( )はXYZ座標系を画像座標系に投影する処理を表し、k−1( )はその逆の処理を表す。 The point ui pred indicates the predicted position of the feature point obtained by applying the homography matrix Hi to the point ui past at time t-1. Specifically, the point ui pred is calculated by the following equation.
Figure 2020107938
Here, k() represents the process of projecting the XYZ coordinate system onto the image coordinate system, and k −1 () represents the reverse process.

上記のようにして、各カメラiの座標系において、点uinow及び点uipredが計算される。すべてのカメラiの座標系における点uinowと点uipredとの誤差が最小となるようなホモグラフィー行列Hiは、正しい車両移動パラメータと、カメラ姿勢および高さのパラメータとを含んでいるといえる。ホモグラフィー行列Hiに含まれる車両回転量Rvおよび移動量Cvは、全てのカメラiに共通の変数なので、パラメータ更新部14は、カメラi毎に独立にパラメータを最適化するのではなく、全カメラiから得られた点uinowと点uipredとの最小化を同時に行う。以上が本実施の形態のカメラキャリブレーション装置1が行う最適化の原理である。 As described above, the points ui now and ui pred are calculated in the coordinate system of each camera i. It can be said that the homography matrix Hi that minimizes the error between the points ui now and ui pred in the coordinate system of all the cameras i includes the correct vehicle movement parameters and the camera attitude and height parameters. .. Since the vehicle rotation amount Rv and the movement amount Cv included in the homography matrix Hi are variables common to all the cameras i, the parameter updating unit 14 does not optimize the parameters independently for each camera i, but rather for all the cameras i. The points ui now and ui pred obtained from i are minimized at the same time. The above is the principle of optimization performed by the camera calibration device 1 of the present embodiment.

具体的には、パラメータ更新部14は、各カメラiのホモグラフィー行列Hiの最適化に用いるヤコビアン行列を統合し、統合したヤコビアン行列を用いてパラメータの最適化を行う。ここで、パラメータ更新部14が推定するパラメータは、最大でフレーム間の車両回転ピッチ角v,ヨー角v,ロール角v,及びxyz移動量v,v,vの6個と、カメラiごとに、姿勢ピッチθp,ヨー角θy,ロール角θr,及び高さhの4個である。つまり、カメラがM台ある場合には、最大で4×M個である。合計で、最大で6+(4×M)個のパラメータが推定対象となる。 Specifically, the parameter updating unit 14 integrates the Jacobian matrices used for optimization of the homography matrix Hi of each camera i, and optimizes the parameters using the integrated Jacobian matrix. Here, the parameters estimated by the parameter updating unit 14 are the maximum six vehicle rotation pitch angles v p , yaw angles v y , roll angles v r , and xyz movement amounts v X , v Y , and v Z. And the posture pitch θp, yaw angle θy, roll angle θr, and height h for each camera i. That is, when there are M cameras, the maximum number is 4×M. In total, a maximum of 6+(4×M) parameters are to be estimated.

図6において、各カメラ画像iにおいて、最小化すべきコストEは次式で与えられる。

Figure 2020107938
コストEを車両移動パラメータv,v,v,v,v,vで偏微分したカメラiのヤコビアン行列Jvi(i=1,・・・,M)、及び、コストEをカメラiのカメラパラメータθp,ヨー角θy,θr,hで偏微分したカメラiのヤコビアン行列Jci(i=1,・・・,M)は、次のようになる。
Figure 2020107938
In FIG. 6, the cost E to be minimized in each camera image i is given by the following equation.
Figure 2020107938
The Jacobian matrix Jvi (i=1,..., M) of the camera i obtained by partially differentiating the cost E by the vehicle movement parameters v p , v y , v r , v X , v Y , and v Z , and the cost E are The Jacobian matrix Jci (i=1,..., M) of the camera i partially differentiated by the camera parameter θp of the camera i and the yaw angles θy, θr, and h is as follows.
Figure 2020107938

図7は、ヤコビアン行列の統合の仕方を示す模式図である。各カメラiで計算したヤコビアン行列Jvi,Jciを1つの行列内に配置することにより、統合する。統合したヤコビアン行列Jは、車両パラメータのヤコビアン行列Jvi(i=1,・・・,M)を列方向に並べた行列と、Jci(i=1,・・・,M)を対角に並べた対角行列とを配置した構成となっている。この行列のサイズは、以下のとおりである。

Figure 2020107938
FIG. 7 is a schematic diagram showing how to integrate Jacobian matrices. The Jacobian matrices Jvi and Jci calculated by each camera i are arranged in one matrix to be integrated. The integrated Jacobian matrix J is a matrix in which the vehicle parameter Jacobian matrices Jvi (i=1,..., M) are arranged in the column direction and Jci (i=1,..., M) are diagonally arranged. And a diagonal matrix are arranged. The size of this matrix is:
Figure 2020107938

パラメータ更新部14は、例えば公知のレーベンバーグ・マーカート法(levenberg-marquardt)によって、上述した6+4×M個のパラメータの最適解を求める。
パラメータ更新は以下のように行う。

Figure 2020107938
パラメータ更新時の各要素の行列サイズは、次のとおりである。
Figure 2020107938
The parameter updating unit 14 obtains the optimum solution of the above 6+4×M parameters by, for example, the well-known Levenberg-Marquardt method (levenberg-marquardt).
The parameters are updated as follows.
Figure 2020107938
The matrix size of each element when updating the parameters is as follows.
Figure 2020107938

以上、本実施の形態のカメラキャリブレーション装置1の構成について説明したが、上記したカメラキャリブレーション装置1のハードウェアの例は、CPU、RAM、ROM、ハードディスク、ディスプレイ、キーボード、マウス、通信インターフェース等を備えたECUである。上記した各機能を実現するモジュールを有するプログラムをRAMまたはROMに格納しておき、CPUによって当該プログラムを実行することによって、上記したカメラキャリブレーション装置1が実現される。このようなプログラムも本発明の範囲に含まれる。 The configuration of the camera calibration device 1 according to the present embodiment has been described above, but examples of hardware of the camera calibration device 1 described above include a CPU, a RAM, a ROM, a hard disk, a display, a keyboard, a mouse, a communication interface, and the like. It is an ECU equipped with. The camera calibration device 1 described above is implemented by storing a program having a module that implements each function described above in the RAM or ROM and executing the program by the CPU. Such a program is also included in the scope of the present invention.

図8は、第1の実施の形態のカメラキャリブレーション装置1の動作を示すフローチャートである。カメラキャリブレーション装置1は、CAN21から車両センサ信号(タイヤ切れ角θ、後輪中心の移動量distのデータ)を受信し(S10)、受信した車両センサ信号に基づいて、車両座標系における車両回転量Rvと車両移動量Cvを求める(S11)。 FIG. 8 is a flowchart showing the operation of the camera calibration device 1 according to the first embodiment. The camera calibration device 1 receives a vehicle sensor signal (data of a tire turning angle θ t and a moving amount dist of the rear wheel center dist) from the CAN 21 (S10), and based on the received vehicle sensor signal, the vehicle in the vehicle coordinate system. The rotation amount Rv and the vehicle movement amount Cv are obtained (S11).

次に、カメラキャリブレーション装置1は、M台のカメラからカメラiを選択する(S12)。カメラキャリブレーション装置1は、選択したカメラiで撮影された画像に基づいて、路面領域にある特徴点のフレーム間におけるフローを抽出する(S13)。続いて、カメラキャリブレーション装置1は、ホモグラフィー行列Hiを計算する(S14)。路面ホモグラフィー行列Hiは、図5で示した方法によって行う。 Next, the camera calibration device 1 selects the camera i from the M cameras (S12). The camera calibration device 1 extracts the flow between the frames of the feature points in the road surface area based on the image captured by the selected camera i (S13). Subsequently, the camera calibration device 1 calculates the homography matrix Hi (S14). The road surface homography matrix Hi is obtained by the method shown in FIG.

続いて、カメラキャリブレーション装置1は、式(13)で示した予測誤差および式(14)(15)で示したヤコビアン行列を計算する(S15)。次に、カメラキャリブレーション装置1は、全カメラについてヤコビアン行列の計算が終了したか否かを判定する(S16)。全カメラについてヤコビアン行列の計算が終了していない場合には(S16でNO)、計算処理を行っていないカメラiを選択し(S12)、上述した処理(S13〜S15)を行う。 Subsequently, the camera calibration device 1 calculates the prediction error shown in Expression (13) and the Jacobian matrix shown in Expressions (14) and (15) (S15). Next, the camera calibration device 1 determines whether the calculation of the Jacobian matrix has been completed for all the cameras (S16). When the calculation of the Jacobian matrix has not been completed for all the cameras (NO in S16), the camera i for which the calculation processing has not been performed is selected (S12), and the above-described processing (S13 to S15) is performed.

全カメラについて予測誤差およびヤコビアン行列の計算が終了した場合には(S16でYES)、カメラキャリブレーション装置1は、各カメラiについて計算したヤコビアン行列を統合する(S17)。ヤコビアン行列の統合は、図7を用いて説明した方法で行う。カメラキャリブレーション装置1は、例えばレーベンバーグ・マーカートB法によって、車両移動パラメータと各カメラiのカメラパラメータを更新し(S18)、更新処理により得られた車両移動パラメータおよび各カメラiのカメラパラメータをパラメータ記憶部15に記憶する(S19)。 When the calculation of the prediction error and the Jacobian matrix is completed for all the cameras (YES in S16), the camera calibration device 1 integrates the Jacobian matrix calculated for each camera i (S17). The integration of the Jacobian matrix is performed by the method described with reference to FIG. The camera calibration device 1 updates the vehicle movement parameter and the camera parameter of each camera i by, for example, the Levenberg-Markt B method (S18), and the vehicle movement parameter and the camera parameter of each camera i obtained by the updating process are updated. The parameter is stored in the parameter storage unit 15 (S19).

ここで、パラメータ更新処理の終了条件は、例えば、更新回数が所定の繰り返し回数に達したことや、パラメータの更新量が所定の閾値以下になったことである。終了条件を満たしていないと判定された場合には、カメラキャリブレーション装置1は、更新されたパラメータを用いて、各カメラiの新しいホモグラフィー行列Hiを計算し、上記した処理を繰り返す。 Here, the termination condition of the parameter update process is, for example, that the number of updates has reached a predetermined number of repetitions, or that the amount of parameter updates has become a predetermined threshold value or less. When it is determined that the termination condition is not satisfied, the camera calibration device 1 uses the updated parameters to calculate a new homography matrix Hi of each camera i, and repeats the above processing.

本実施の形態のカメラキャリブレーション装置1によれば、走行中にカメラのキャリブレーションを行うことができ、乗員や荷物の重量によって車体が傾いている場合等にもカメラの姿勢、路面高さを適切な値に設定できる。これにより、例えば、カメラ画像に基づいて俯瞰画像を生成する場合等に、キャリブレーション後のカメラパラメータを用いて、適切な俯瞰画像を生成することができる。 According to the camera calibration device 1 of the present embodiment, the camera can be calibrated during traveling, and the posture of the camera and the height of the road surface can be adjusted even when the vehicle body is tilted due to the weight of an occupant or luggage. Can be set to an appropriate value. Thereby, for example, when generating the bird's-eye view image based on the camera image, it is possible to generate an appropriate bird's-eye view image using the calibrated camera parameters.

また、車両移動パラメータと各カメラiのカメラパラメータを同時に最適化することができるので、アッカーマンモデルで得られた車両回転量Rvと車両移動量Cvに誤差が含まれている場合でも、その誤差を低減でき、カメラ姿勢Rciと高さhciの精度向上が期待できる。複数のカメラのカメラパラメータのキャリブレーションを適切に行うことができる。 Further, since the vehicle movement parameter and the camera parameter of each camera i can be optimized at the same time, even if the vehicle rotation amount Rv and the vehicle movement amount Cv obtained by the Ackerman model include an error, the error is eliminated. It can be reduced, and the accuracy of the camera posture Rci and the height hci can be expected to improve. It is possible to properly calibrate the camera parameters of a plurality of cameras.

(第2の実施の形態)
図9は、第2の実施の形態のカメラキャリブレーション装置2の構成を示す図である。第2の実施の形態のカメラキャリブレーション装置2は、カメラパラメータが確定済みのときには、カメラキャリブレーション装置2によるパラメータの最適化を利用して、車両移動パラメータを最適化(補正)する。第2の実施の形態のカメラキャリブレーション装置2の基本的な構成は、第1の実施の形態のカメラキャリブレーション装置1と同じであるが、第2の実施の形態のカメラキャリブレーション装置2では、受信部10とパラメータ更新部14とが接続されている。受信部10は、受信したステアリング角度に基づいて車両が直進しているかどうかの情報をパラメータ更新部14に入力する。
(Second embodiment)
FIG. 9 is a diagram showing the configuration of the camera calibration device 2 according to the second embodiment. The camera calibration device 2 according to the second embodiment optimizes (corrects) the vehicle movement parameter by using the parameter optimization by the camera calibration device 2 when the camera parameter is already determined. Although the basic configuration of the camera calibration device 2 of the second embodiment is the same as that of the camera calibration device 1 of the first embodiment, the camera calibration device 2 of the second embodiment is different. The receiving unit 10 and the parameter updating unit 14 are connected. The receiving unit 10 inputs, into the parameter updating unit 14, information on whether or not the vehicle is traveling straight on the basis of the received steering angle.

図10は、第2の実施の形態のカメラキャリブレーション装置2による処理を示すフローチャートである。カメラキャリブレーション装置2は、カメラパラメータが確定しているか否かを判定する(S20)。カメラパラメータが確定していない場合には(S20でNO)、カメラパラメータを確定する処理を行う。第2の実施の形態では、車両が直進しているときのカメラ画像を用いてカメラパラメータを計算する。車両が直進しているときには、車両自体の回転による特徴点の回転がないため、カメラパラメータを精度良く計算できるためである。 FIG. 10 is a flowchart showing a process performed by the camera calibration device 2 according to the second embodiment. The camera calibration device 2 determines whether the camera parameters are confirmed (S20). If the camera parameter has not been determined (NO in S20), the process of determining the camera parameter is performed. In the second embodiment, camera parameters are calculated using the camera image when the vehicle is traveling straight ahead. This is because when the vehicle is moving straight ahead, there is no rotation of the characteristic points due to the rotation of the vehicle itself, and therefore the camera parameters can be calculated accurately.

カメラキャリブレーション装置2のパラメータ更新部14は、受信部10から取得した情報に基づいて、車両が直進しているか否かを判定する(S21)。車両が直進していると判定された場合には(S21でYES)、CAN信号に基づいて計算された車両移動パラメータを固定し、カメラパラメータの更新を行う(S22)。カメラパラメータの更新の方法は、車両移動パラメータの値を正解として固定している点を除き、上記した第1の実施の形態で説明した方法と同じである。車両が直進していないと判定された場合には(S21でNO)、カメラパラメータの更新を行わず、次のカメラ画像の入力を待つ。 The parameter updating unit 14 of the camera calibration device 2 determines whether or not the vehicle is going straight on the basis of the information acquired from the receiving unit 10 (S21). When it is determined that the vehicle is moving straight (YES in S21), the vehicle movement parameter calculated based on the CAN signal is fixed and the camera parameter is updated (S22). The method of updating the camera parameters is the same as the method described in the above-described first embodiment, except that the value of the vehicle movement parameter is fixed as the correct answer. When it is determined that the vehicle is not traveling straight (NO in S21), the camera parameters are not updated and the next camera image input is awaited.

カメラパラメータが確定しているか否かの判定(S20)において、確定していると判定された場合には(S20でYES)、カメラキャリブレーション装置のパラメータ更新部14は、カメラパラメータを固定して、車両移動パラメータを更新する(S23)。これにより、例えば、車両が右左折、レーン変更、Uターン等を行う場合に、キャリブレーション済みのカメラの画像に基づいて車両移動パラメータを補正することができる。 When it is determined that the camera parameters have been determined (S20) (YES in S20), the parameter updating unit 14 of the camera calibration device fixes the camera parameters. , The vehicle movement parameter is updated (S23). Thereby, for example, when the vehicle makes a right/left turn, a lane change, a U-turn, etc., the vehicle movement parameter can be corrected based on the calibrated camera image.

車両移動パラメータを補正することにより、例えば、移動ステレオカメラ等のアプリケーションで利用することができ、精度の良い測距等を行うことが可能となる。 By correcting the vehicle movement parameter, for example, it can be used in an application such as a moving stereo camera, and accurate distance measurement or the like can be performed.

(第3の実施の形態)
図11は、第3の実施の形態のカメラキャリブレーション装置3の構成を示す図である。第3の実施の形態のカメラキャリブレーション装置3は、第1の実施の形態のカメラキャリブレーション装置1の構成に加え、路面領域特定部16を備えている。
(Third Embodiment)
FIG. 11 is a diagram showing the configuration of the camera calibration device 3 according to the third embodiment. The camera calibration device 3 according to the third embodiment includes a road surface area specifying unit 16 in addition to the configuration of the camera calibration device 1 according to the first embodiment.

路面領域特定部16は、車両移動量計算部11にて求められた車両回転量Rvと車両移動量Cvを用いて、車両が走行してきた軌跡を計算し、求めた軌跡情報と現在のカメラ姿勢Rciと位置Cciを用いて画像中における路面領域を特定する。Rciとhciは最終的な値ではなく誤差を含んでいる可能性があるので、それを考慮した路面領域を設定する。路面領域特定部16は、特定した路面領域のデータを路面フロー抽出部13に渡す。路面フロー抽出部13は、フレーム間の画像情報に加えて、路面領域特定部16より取得した路面領域のデータを用いて、路面フローを抽出する。 The road surface area specifying unit 16 calculates the trajectory of the vehicle using the vehicle rotation amount Rv and the vehicle movement amount Cv obtained by the vehicle movement amount calculation unit 11, and obtains the obtained trajectory information and the current camera attitude. The road surface area in the image is specified using Rci and the position Cci. Since Rci and hci may include an error instead of the final value, the road surface area is set in consideration of it. The road surface area identification unit 16 passes the data of the identified road surface area to the road surface flow extraction unit 13. The road surface flow extraction unit 13 extracts the road surface flow using the data of the road surface area acquired from the road surface area identification unit 16 in addition to the image information between the frames.

このように車両センサ信号に基づいて特定した路面領域のデータを用いることにより、路面に含まれるフローを適切に抽出することができる。 By using the data of the road surface area specified based on the vehicle sensor signal in this way, the flow included in the road surface can be appropriately extracted.

(第4の実施の形態)
図12は、第4の実施の形態のカメラキャリブレーション装置4の構成を示す図である。第4の実施の形態のカメラキャリブレーション装置4は、第1の実施の形態のカメラキャリブレーション装置1の構成に加え、ピッチ変動検知部17を備えている。
(Fourth Embodiment)
FIG. 12 is a diagram showing the configuration of the camera calibration device 4 according to the fourth embodiment. The camera calibration device 4 of the fourth embodiment includes a pitch variation detection unit 17 in addition to the configuration of the camera calibration device 1 of the first embodiment.

ピッチ変動検知部17は、車両あるいはカメラがピッチ軸(図3でいうXv軸あるいはXc軸)周りに所定の閾値以上の変動をしたことを検知する機能を有する。所定の閾値は、例えば、単位時間あたりの回転角度で規定される。本実施の形態において、ピッチ変動検知部17は、パラメータ更新部14に接続されており、パラメータ更新部14にて求めたカメラパラメータから、ピッチ変動を検知する。 The pitch fluctuation detection unit 17 has a function of detecting that the vehicle or the camera has fluctuated about the pitch axis (Xv axis or Xc axis in FIG. 3) over a predetermined threshold value. The predetermined threshold value is defined by, for example, a rotation angle per unit time. In the present embodiment, the pitch variation detecting unit 17 is connected to the parameter updating unit 14 and detects the pitch variation from the camera parameter obtained by the parameter updating unit 14.

ピッチ変動検知部17は、ピッチ変動の検知結果をパラメータ更新部14に入力する。これにより、カメラキャリブレーション装置4は、ピッチ変動検知部17にてピッチ変動が検知された場合には、その変動が起こったときにフレームの画像をキャリブレーションに利用しない。これにより、路面が平面でない、あるいは、路面に凹凸があるような平面でないシーンを除外してカメラのキャリブレーションを行うので、キャリブレーションの精度を向上させることができる。 The pitch variation detection unit 17 inputs the pitch variation detection result to the parameter updating unit 14. Accordingly, when the pitch fluctuation detection unit 17 detects the pitch fluctuation, the camera calibration device 4 does not use the frame image for the calibration when the fluctuation occurs. As a result, the camera is calibrated by excluding a scene in which the road surface is not a flat surface or is not a flat surface where the road surface has irregularities, so that the accuracy of the calibration can be improved.

なお、本実施の形態では、車両パラメータあるいはカメラパラメータの推定結果を利用してピッチ変動を検知する例を挙げて説明したが、ピッチ変動を検知する方法は、車両パラメータあるいはカメラパラメータの推定結果を利用するだけではなく、例えば、車両センサ信号やカメラ画像に基づいてピッチ変動を検知することとしてもよい。画像を用いる場合、例えば画像全体からフローを検出し、そのフローの収束点(FOE)の上下移動があった場合にピッチ変動が検出できる。また、ピッチセンサやジャイロセンサを用いて、ピッチ変動を検知してもよい。 In the present embodiment, an example in which the pitch variation is detected by using the estimation result of the vehicle parameter or the camera parameter has been described, but the method of detecting the pitch variation uses the estimation result of the vehicle parameter or the camera parameter. In addition to the use, the pitch variation may be detected based on the vehicle sensor signal or the camera image, for example. When an image is used, for example, a flow can be detected from the entire image, and a pitch fluctuation can be detected when the convergence point (FOE) of the flow moves up and down. Alternatively, a pitch sensor or a gyro sensor may be used to detect the pitch fluctuation.

本実施の形態では、ピッチ変動を検出したときに、カメラキャリブレーションを行わない構成としたが、ピッチ変動のデータに代えて加速度のデータを用いてもよい。例えば、図9で示したカメラキャリブレーション装置のように、受信部10とパラメータ更新部14とを接続しておき、パラメータ更新部14は受信部10から加速度のデータを取得する。そして、パラメータ更新部14は、加速度が所定の閾値以上の場合には、カメラキャリブレーションを行わないように構成してもよい。車両の始動時(加速時)や、停車前(減速時)は、車体のピッチ変動が発生しやすいため、ピッチ変動に代えて加速度を用いて、カメラキャリブレーションを実施しないタイミングを決定する。ピッチ変動の検出が不要となるので、簡易な構成とすることができる。 In the present embodiment, the camera calibration is not performed when the pitch fluctuation is detected, but the acceleration data may be used instead of the pitch fluctuation data. For example, like the camera calibration device shown in FIG. 9, the receiving unit 10 and the parameter updating unit 14 are connected to each other, and the parameter updating unit 14 acquires acceleration data from the receiving unit 10. Then, the parameter updating unit 14 may be configured not to perform the camera calibration when the acceleration is equal to or higher than the predetermined threshold value. When the vehicle is started (accelerated) or before the vehicle is stopped (decelerated), pitch variation of the vehicle body is likely to occur. Therefore, acceleration is used instead of pitch variation to determine the timing at which camera calibration is not performed. Since it is not necessary to detect pitch fluctuations, a simple configuration can be achieved.

本発明は、車両に搭載されたカメラのキャリブレーションを行う装置として有用である。 INDUSTRIAL APPLICATION This invention is useful as an apparatus which calibrates the camera mounted in the vehicle.

1〜4 カメラキャリブレーション装置
10 受信部
11 カメラ移動量計算部
12 ホモグラフィー行列計算部
13 路面フロー抽出部
14 パラメータ更新部
15 パラメータ記憶部
16 路面領域特定部
17 ピッチ変動検知部
21 CAN
22 カメラ
1 to 4 camera calibration device 10 receiving unit 11 camera movement amount calculating unit 12 homography matrix calculating unit 13 road surface flow extracting unit 14 parameter updating unit 15 parameter storing unit 16 road surface region specifying unit 17 pitch variation detecting unit 21 CAN
22 camera

Claims (10)

車両に搭載された複数のカメラi(1≦i≦M)のキャリブレーションを行う装置であって、
前記複数のカメラiにて撮影した画像中の路面領域にある特徴点のフレーム間におけるフローを抽出する路面フロー抽出部と、
車両センサ信号を受信する受信部と、
前記車両センサ信号から車両座標系における前記フレーム間の車両回転量Rvおよび移動量Cvを計算する車両移動量計算部と、
前記車両回転量Rvおよび移動量Cvを、前時刻までに得られた車両座標系における各カメラiのカメラ姿勢Rciおよびカメラ位置Cciを用いて、前記各カメラiの座標系における前記フレーム間のカメラ回転量Riおよび移動量Ciに変換し、ホモグラフィー行列Hiを計算するホモグラフィー行列計算部と、
前記各カメラiの画像において、ホモグラフィー行列Hiによって変換される特徴点の位置が前記路面フロー抽出部で求めた特徴点のフローと整合するように、複数のカメラi(1≦i≦M)のカメラ姿勢Rciおよびカメラ高さhciと車両移動パラメータの最適解を求めるパラメータ更新部と、
を備えるカメラキャリブレーション装置。
A device for calibrating a plurality of cameras i (1≦i≦M) mounted on a vehicle,
A road surface flow extraction unit for extracting a flow between frames of feature points in a road surface region in an image captured by the plurality of cameras i;
A receiver for receiving the vehicle sensor signal,
A vehicle movement amount calculation unit that calculates a vehicle rotation amount Rv and a movement amount Cv between the frames in the vehicle coordinate system from the vehicle sensor signal;
The vehicle rotation amount Rv and the movement amount Cv are calculated by using the camera posture Rci and the camera position Cci of each camera i in the vehicle coordinate system obtained up to the previous time, and the camera between the frames in the coordinate system of each camera i. A homography matrix calculation unit that converts the rotation amount Ri and the movement amount Ci and calculates the homography matrix Hi;
In the image of each camera i, a plurality of cameras i (1≦i≦M) are selected so that the positions of the feature points converted by the homography matrix Hi match the flow of the feature points obtained by the road surface flow extraction unit. A parameter updating unit for obtaining an optimum solution of the camera posture Rci, the camera height hci, and the vehicle movement parameter of
A camera calibration device equipped with.
キャリブレーション前の前記複数のカメラiのカメラ姿勢Rciおよび位置Cciのデータを記憶した記憶部を備え、
前記パラメータ更新部は、前記記憶部から読み出したカメラ姿勢Rciおよび高さhciを初期値として前記最適解を求め、求めた各カメラiのカメラ姿勢Rciおよびカメラ高さhciの最適解によって前記記憶部のデータを更新する請求項1に記載のカメラキャリブレーション装置。
A storage unit that stores data of the camera postures Rci and positions Cci of the plurality of cameras i before calibration;
The parameter updating unit obtains the optimum solution by using the camera orientation Rci and the height hci read from the storage unit as initial values, and the storage unit uses the obtained optimal solution of the camera posture Rci and the camera height hci of each camera i. The camera calibration device according to claim 1, wherein the data of 1. is updated.
車両に搭載された複数のカメラi(1≦i≦M)のキャリブレーションを行う装置であって、
前記複数のカメラiにて撮影した画像中の路面領域にある特徴点のフレーム間におけるフローを抽出する路面フロー抽出部と、
車両センサ信号を受信する受信部と、
前記車両センサ信号から車両座標系における前記フレーム間の車両回転量Rvおよび移動量Cvを計算する車両移動量計算部と、
前記車両回転量Rvおよび前記移動量Cvから求まる前記各カメラiにおける前記特徴点のフローと、前記路面フロー抽出部で求めた特徴点のフローとが整合するように、車両移動パラメータおよびカメラパラメータの最適解を求めるパラメータ更新部と、
を備えるカメラキャリブレーション装置。
A device for calibrating a plurality of cameras i (1≦i≦M) mounted on a vehicle,
A road surface flow extraction unit that extracts a flow between frames of feature points in a road surface area in an image captured by the plurality of cameras i;
A receiver for receiving the vehicle sensor signal,
A vehicle movement amount calculation unit that calculates a vehicle rotation amount Rv and a movement amount Cv between the frames in the vehicle coordinate system from the vehicle sensor signal;
The vehicle movement parameters and the camera parameters are set so that the flow of the characteristic points in each camera i obtained from the vehicle rotation amount Rv and the movement amount Cv and the flow of the characteristic points obtained by the road surface flow extraction unit match. A parameter updating unit that finds an optimal solution,
A camera calibration device equipped with.
前記車両センサ信号に基づいて車両が直進していると判定された場合には、
前記パラメータ更新部は、前記車両センサ信号から求められる前記車両回転量Rvおよび移動量Cvが正解であるとして、前記カメラパラメータの最適解を求める請求項1乃至3のいずれかに記載のカメラキャリブレーション装置。
When it is determined that the vehicle is traveling straight based on the vehicle sensor signal,
The camera calibration according to any one of claims 1 to 3, wherein the parameter updating unit obtains an optimum solution of the camera parameter, assuming that the vehicle rotation amount Rv and the movement amount Cv obtained from the vehicle sensor signal are correct answers. apparatus.
前記パラメータ更新部は、前記カメラパラメータの最適解を求めた後に、当該カメラパラメータが正解であるとして、前記車両移動パラメータの最適解を求める請求項4に記載のカメラキャリブレーション装置。 The camera calibration device according to claim 4, wherein the parameter updating unit obtains an optimal solution of the vehicle parameter after determining an optimal solution of the camera parameter, and determines that the camera parameter is a correct solution. 前記車両センサ信号に基づいて前記車両が走行した軌跡を求め、当該軌跡およびカメラ姿勢Rciおよび位置Cciに基づいて前記路面領域を特定し、その路面領域に基づいて路面フローを抽出する請求項1乃至5のいずれかに記載のカメラキャリブレーション装置。 2. A path along which the vehicle has traveled is obtained based on the vehicle sensor signal, the road surface area is specified based on the path and camera posture Rci and position Cci, and a road surface flow is extracted based on the road surface area. 5. The camera calibration device according to any one of 5. 前記複数のカメラiで撮影された画像に基づいて、いずれかのカメラのピッチ軸回りの所定の閾値以上の変動を検知するピッチ変動検知部を備え、
前記ピッチ変動検知部にて、所定の閾値以上の変動を検知したときに、当該変動の際に撮影された画像をキャリブレーションの処理から除外する請求項1乃至6のいずれかに記載のカメラキャリブレーション装置。
A pitch fluctuation detection unit that detects a fluctuation of a pitch axis of one of the cameras, which is equal to or more than a predetermined threshold value, based on images captured by the plurality of cameras i
7. The camera calibration according to claim 1, wherein when the pitch variation detection unit detects a variation equal to or larger than a predetermined threshold value, the image captured during the variation is excluded from the calibration process. Device.
前記受信部にて受信した車両センサ信号に基づいて車両が加速しているか否かを判定し、
前記パラメータ更新部は、車両が加速している際に撮影された画像をキャリブレーションの処理から除外する請求項1乃至6のいずれかに記載のカメラキャリブレーション装置。
Determine whether the vehicle is accelerating based on the vehicle sensor signal received by the receiving unit,
The camera calibration device according to claim 1, wherein the parameter updating unit excludes an image captured when the vehicle is accelerating from the calibration process.
車両に搭載された複数のカメラi(1≦i≦M)のキャリブレーションを行う方法であって、
前記複数のカメラiにて撮影した画像中の路面領域にある特徴点のフレーム間におけるフローを抽出するステップと、
車両センサ信号を受信するステップと、
前記車両センサ信号から車両座標系における前記フレーム間の車両回転量Rvおよび移動量Cvを計算するステップと、
前記車両回転量Rvおよび移動量Cvを、前時刻までに得られた車両座標系における各カメラiのカメラ姿勢Rciおよびカメラ位置Cciを用いて、前記各カメラiの座標系における前記フレーム間のカメラ回転量Riおよび移動量Ciに変換し、ホモグラフィー行列Hiを計算するステップと、
前記各カメラiの画像において、ホモグラフィー行列Hiによって変換される特徴点の位置が前記特徴点のフローと整合するように、複数のカメラi(1≦i≦M)のカメラ姿勢Rciおよびカメラ高さhciと車両移動パラメータの最適解を求めるステップと、
を備えるカメラキャリブレーション方法。
A method for calibrating a plurality of cameras i (1≦i≦M) mounted on a vehicle, comprising:
Extracting a flow between frames of feature points in a road surface area in an image captured by the plurality of cameras i,
Receiving a vehicle sensor signal,
Calculating a vehicle rotation amount Rv and a movement amount Cv between the frames in a vehicle coordinate system from the vehicle sensor signal;
The vehicle rotation amount Rv and the movement amount Cv are calculated by using the camera posture Rci and the camera position Cci of each camera i in the vehicle coordinate system obtained up to the previous time, and the camera between the frames in the coordinate system of each camera i. Converting the amount of rotation Ri and the amount of movement Ci and calculating the homography matrix Hi;
In the image of each camera i, the camera postures Rci and camera heights of the plurality of cameras i (1≦i≦M) are matched so that the positions of the feature points transformed by the homography matrix Hi match the flow of the feature points. Step hci and the step of obtaining the optimum solution of the vehicle movement parameter,
A method for calibrating a camera.
車両に搭載された複数のカメラi(1≦i≦M)のキャリブレーションを行うためのプログラムであって、コンピュータに、
前記複数のカメラiにて撮影した画像中の路面領域にある特徴点のフレーム間におけるフローを抽出するステップと、
車両センサ信号を受信するステップと、
前記車両センサ信号から車両座標系における前記フレーム間の車両回転量Rvおよび移動量Cvを計算するステップと、
前記車両回転量Rvおよび移動量Cvを、前時刻までに得られた車両座標系における各カメラiのカメラ姿勢Rciおよびカメラ位置Cciを用いて、前記各カメラiの座標系における前記フレーム間のカメラ回転量Riおよび移動量Ciに変換し、ホモグラフィー行列Hiを計算するステップと、
前記各カメラiの画像において、ホモグラフィー行列Hiによって変換される特徴点の位置が前記特徴点のフローと整合するように、複数のカメラi(1≦i≦M)のカメラ姿勢Rciおよびカメラ高さhciと車両移動パラメータの最適解を求めるステップと、
を実行させるプログラム。
A program for calibrating a plurality of cameras i (1≦i≦M) mounted on a vehicle, the program including:
Extracting a flow between frames of feature points in a road surface area in an image captured by the plurality of cameras i,
Receiving a vehicle sensor signal,
Calculating a vehicle rotation amount Rv and a movement amount Cv between the frames in a vehicle coordinate system from the vehicle sensor signal;
The vehicle rotation amount Rv and the movement amount Cv are calculated by using the camera posture Rci and the camera position Cci of each camera i in the vehicle coordinate system obtained up to the previous time, and the camera between the frames in the coordinate system of each camera i. Converting the amount of rotation Ri and the amount of movement Ci and calculating the homography matrix Hi;
In the image of each camera i, the camera postures Rci and camera heights of the plurality of cameras i (1≦i≦M) are matched so that the positions of the feature points transformed by the homography matrix Hi match the flow of the feature points. Step hci and the step of obtaining the optimum solution of the vehicle movement parameter,
A program to execute.
JP2018242240A 2018-12-26 2018-12-26 Camera calibration device, camera calibration method, and program Active JP7137464B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018242240A JP7137464B2 (en) 2018-12-26 2018-12-26 Camera calibration device, camera calibration method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018242240A JP7137464B2 (en) 2018-12-26 2018-12-26 Camera calibration device, camera calibration method, and program

Publications (2)

Publication Number Publication Date
JP2020107938A true JP2020107938A (en) 2020-07-09
JP7137464B2 JP7137464B2 (en) 2022-09-14

Family

ID=71449497

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018242240A Active JP7137464B2 (en) 2018-12-26 2018-12-26 Camera calibration device, camera calibration method, and program

Country Status (1)

Country Link
JP (1) JP7137464B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112684250A (en) * 2020-12-03 2021-04-20 华中科技大学 Calibration method for high-power millimeter wave intensity measurement system
WO2023273427A1 (en) * 2021-06-30 2023-01-05 安徽爱观视觉科技有限公司 Speed measurement method and apparatus based on multiple cameras
CN117649454A (en) * 2024-01-29 2024-03-05 北京友友天宇***技术有限公司 Binocular camera external parameter automatic correction method and device, electronic equipment and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014165810A (en) * 2013-02-27 2014-09-08 Fujitsu Ten Ltd Parameter acquisition device, parameter acquisition method and program
JP2017078923A (en) * 2015-10-20 2017-04-27 クラリオン株式会社 Calibration device, calibration method, and calibration program
JP2017143417A (en) * 2016-02-10 2017-08-17 クラリオン株式会社 Calibration system, calibration device
US20180232907A1 (en) * 2017-02-16 2018-08-16 Qualcomm Incorporated Camera Auto-Calibration with Gyroscope

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014165810A (en) * 2013-02-27 2014-09-08 Fujitsu Ten Ltd Parameter acquisition device, parameter acquisition method and program
JP2017078923A (en) * 2015-10-20 2017-04-27 クラリオン株式会社 Calibration device, calibration method, and calibration program
JP2017143417A (en) * 2016-02-10 2017-08-17 クラリオン株式会社 Calibration system, calibration device
US20180232907A1 (en) * 2017-02-16 2018-08-16 Qualcomm Incorporated Camera Auto-Calibration with Gyroscope

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112684250A (en) * 2020-12-03 2021-04-20 华中科技大学 Calibration method for high-power millimeter wave intensity measurement system
CN112684250B (en) * 2020-12-03 2022-03-18 华中科技大学 Calibration method for high-power millimeter wave intensity measurement system
WO2023273427A1 (en) * 2021-06-30 2023-01-05 安徽爱观视觉科技有限公司 Speed measurement method and apparatus based on multiple cameras
CN117649454A (en) * 2024-01-29 2024-03-05 北京友友天宇***技术有限公司 Binocular camera external parameter automatic correction method and device, electronic equipment and storage medium
CN117649454B (en) * 2024-01-29 2024-05-31 北京友友天宇***技术有限公司 Binocular camera external parameter automatic correction method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP7137464B2 (en) 2022-09-14

Similar Documents

Publication Publication Date Title
US10620000B2 (en) Calibration apparatus, calibration method, and calibration program
US10594943B2 (en) Camera calibration device and camera calibration system
US10567704B2 (en) Method for motion estimation between two images of an environmental region of a motor vehicle, computing device, driver assistance system as well as motor vehicle
US9858684B2 (en) Image processing method and apparatus for calibrating depth of depth sensor
KR102249769B1 (en) Estimation method of 3D coordinate value for each pixel of 2D image and autonomous driving information estimation method using the same
WO2015198930A1 (en) Distance measurement device, and distance measurement correction device using correction parameter
US20160165140A1 (en) Method for camera motion estimation and correction
US20120314073A1 (en) Apparatus and Method for Detecting Posture of Camera Mounted on Vehicle
JP7137464B2 (en) Camera calibration device, camera calibration method, and program
WO2015029443A1 (en) Turning angle correction method, turning angle correction device, image-capturing device, and turning angle correction system
CN108027230B (en) Information processing apparatus, information processing method, and program
JP4670528B2 (en) Imaging device deviation detection method, imaging device deviation correction method, and imaging device
US12020456B2 (en) External parameter calibration method, device and system for image acquisition apparatus
JP5310027B2 (en) Lane recognition device and lane recognition method
CN111508025A (en) Three-dimensional position estimation device and program
WO2020137110A1 (en) Movement amount estimation device
JP6768554B2 (en) Calibration device
US20150324984A1 (en) Image calibration
JP7019431B2 (en) Camera calibration device, camera calibration method, and program
KR101394770B1 (en) Image stabilization method and system using curve lane model
JP7456857B2 (en) Self-position estimation device
JP7336223B2 (en) Self-localization method
CN112016568B (en) Tracking method and device for image feature points of target object
US10643077B2 (en) Image processing device, imaging device, equipment control system, equipment, image processing method, and recording medium storing program
JP3951734B2 (en) Vehicle external recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210416

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220902

R150 Certificate of patent or registration of utility model

Ref document number: 7137464

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150