JP2021111302A - カメラモジュールに基づいて自動的に地面を推定する方法 - Google Patents
カメラモジュールに基づいて自動的に地面を推定する方法 Download PDFInfo
- Publication number
- JP2021111302A JP2021111302A JP2020009509A JP2020009509A JP2021111302A JP 2021111302 A JP2021111302 A JP 2021111302A JP 2020009509 A JP2020009509 A JP 2020009509A JP 2020009509 A JP2020009509 A JP 2020009509A JP 2021111302 A JP2021111302 A JP 2021111302A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- ground
- image plane
- plane
- ground plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】カメラキャリブレーションを実施する時、手動で参照点を指定しなければならないので、精度が低くなり地面推定結果に大きな影響を与えてしまう。【解決手段】様々な姿勢のチェッカーボード図を撮影し、カメラの外部と内部パラメータを確定する。その後、前記のカメラの外部と内部パラメータにより、イメージ平面から地面平面への射影変換マトリックスを計算し、自動的に参照点の座標を算出することができる。このため、キャリブレーションの精度を大幅に向上することができる。【選択図】図1
Description
本発明は、カメラモジュールにより自動的に地面を推定する方法に関するものである。
コンピュータビジョンの技術は、インテリジェント運転に広く応用されている。特定のアルゴリズムは、人間の知覚と同じようにコンテキストを識別するために画像のピクセル(画素)を分析するように設計されている。例えば、障害物検知や地面に記されたマークでロケーション(位置を推定)するなどがそうである。カメラビジョンはLiDAR(Light Detection And Ranging)やRadarより機知に富んでおり、人間の視覚感覚により近いものとなっている。障害物検知やビジョンロケーションは、画像(フレーム)のコンテンツを検索して処理している。特徴抽出もまた歩行者や車両検知において全フレームエリアやその特定領域(ROI:Region Of Interest)内を検索して処理する。
SLAM(Simultaneous Location And Mapping)は、特徴を抽出するために全空間を検索する。すなわち全フレームで左上隅から右下隅までをくまなく検索する。このため、多数の反復操作が必要となる。もし地面推定のステップを追加すれば、無関係なエリアの検索処理を減らせることができる。また通常、歩行者や自転車、車などは地面上に存在し、空中に存在することはありえない。 逆に信号機やスピード制限看板は地面には存在しない。これらの常識に基づいて検索エリアを制限することができる。言い換えると、地面を推定して地面と地面以外を区別することは障害物検知の重要なステップである。
SLAMの応用において、通常はフレーム全体の特徴点を計算する。どの特徴点を抽出するかによって、ロケーションの精度も異なる。
地面を推定する時、特徴点や三次元空間のポイントを抽出してリアルタイムに推定する手法がある。この手法は、連続する前後のフレームの特徴点を抽出してからマッチング(特徴点どうしを照合)し、RANSAC(RANdom SAmple Consensus)アルゴリズムで異常値を排除することにより、高い精度と高い頑健性を保つ推定方法である。しかし、処理時間がかかるためシステムの負担を増やす。また、いくつかの単純なシナリオでは、特徴点抽出が困難なためマッチングの精度が低下する。カメラの高さや姿勢は手動で計測される場合があるが、この場合、高精度に地面を推定することは困難である。
ステレオ動画像を利用した平面領域抽出による障害物検出 情報処理学会論文誌:コンピュータービジョンとイメージメディアVOL45XoSIG13(CVIM10) 関晃仁他
A Flexible New Technique for Camera Calibration,Zhengyou Zhang,Technical Report MSR−TR−98−71,Microsoft Research,Microsoft Corporation
従来の地面推定方法は、画像から特徴点や三次元空間のポイントを抽出してリアルタイム的に推定する手法である。しかし、この手法では高精度を保証するために処理時間がかかり、システムの負担を増やすという問題がある。また、いくつかの単純なシナリオでは特徴点が非常に少なくなるため、推定精度が低下するという問題もある。カメラの高さや姿勢は手動で計測される場合があるが、この場合、高精度に地面を推定することは困難である。
この解決策の主要な点はカメラキャリブレーションの段階で高品質なモデルを組み立てることである。前記、非特許文献2のZhang氏が提案したキャリブレーション法に基づき、カメラの前にチェッカーボード(白黒正方形の市松模様を記した板)を置き、そのチェッカーボードを空間的に様々な姿勢に配置して撮影した画像を用いてカメラの内部パラメータを取得する。次に同じチェッカーボードをチェッカー模様が上になるようにして地面に置いて撮影した画像を用いて、カメラの外部パラメータを計算して、カメラの高さと姿勢を取得する。更に主点(Principle Point)を参照して、カメラのロール情報を用いて理想イメージ平面を実イメージ平面に変換し、ピッチ情報を用いて理想イメージ平面を地面イメージ平面に変換する。前記で計算された二つの平面射影変換マトリックスを用いることで、リアルタイムに地面を推定できる。
本特許は、カメラモジュールに基づいて自動的に地面を推定する方法を提供し、以下の特徴を有する。
1.リアルタイムに2D(2次元)或いは3D(3次元)の特徴点を抽出する必要がない
2.大量の特徴点を計算する必要がない
3.様々なシーンに適用できて信頼性が高い
4.自動化率が高い
1.リアルタイムに2D(2次元)或いは3D(3次元)の特徴点を抽出する必要がない
2.大量の特徴点を計算する必要がない
3.様々なシーンに適用できて信頼性が高い
4.自動化率が高い
4つのステップに分けて説明する。図1より、このフローはカメラキャリブレーション及び姿勢計算モジュール、地面とイメージ平面の自動生成モジュール、平面射影変換モジュールと鳥瞰図生成モジュールという4つのモジュールで構成されている。
ステップ1:このステップは、カメラキャリブレーションの計算モジュールである。非特許文献2のZhang氏が提案したキャリブレーション法に基づきキャリブレーションを実行する。
1−1.カメラ前方に空間的に様々な姿勢で配置されたチェッカーボードを撮影し、その画像データを保存する。カメラの視野範囲内にチェッカーボードを収め、チェッカーボード上の正方形が全て映るように画像を撮る。チェッカーボードの正方形の1辺長を測る。これは唯一の手動ステップである。
1−2.チェッカー模様が上になるようにしてチェッカーボードを地面に置いて、一枚の画像を撮る。この時、チェッカーボードは地面と密着させて水平に置く。その後、キャリブレーションのステップにおいて、カメラの内部パラメータを計算する。
上記数1に示すマトリックスにおいて、fxはx方向、fyはy方向のピクセル単位の焦点距離である。kはディストーション(歪み)係数である、Cxはx方向、Cyはy方向のカメラの中心光軸からの距離である。地面に置いたチェッカーボード図を参考にして、外部パラメータに関する回転マトリックスRと並進ベクトルTを求める。固有パラメータの調整は以上で終了である。次にカメラの姿勢を取得するステップに移る。
1−4.カメラの姿勢は上記のRとTから算出する。まず、RとTの座標参照系が実際に定義された座標系と一致するかどうかを確認する。不一致の場合、座標系を変換する必要がある。回転マトリックスRはZYX(or XYZ)座標系における剛体の回転運動を定義する。図2に示す座標系は右手の法則にしたがうものとする。カメラの光学中心を座標原点として、カメラの水平前方方向をZ軸として、カメラの高さをhとする(このhはY軸にある)。またカメラとZ軸とY軸方向との角度がピッチθである、カメラとZ軸とX軸方向の角度がヨー(β)である、カメラとX軸とY軸方向との角度(Z軸周りの回転角度)がロール(α)である。時計回りをプラスと仮定すれば、ZYX方向に回転するマトリックスは、下記数2に示す通りである。
1)θ、α、βの最適値は最小二乗法によりこれらの特定方程式を解くことによって得ることができる。βはチェッカーボードとカメラの位置に依存するので、θとαのみ使用する。
2)カメラの高さを算出する時、カメラ座標系に変換できるようにT×R(Tは並進ベクトル、Rは前記数2の回転マトリックス)の演算が実行され、1×3のベクトルマトリックスが生成される。このベクトルマトリックスはカメラの光学中心から地面までの高さhを表す。ここまでで、下記ステップに必要なパラメータ、すなわちピッチθ、ロールα、高さh、カメラの主点座標(Cx、Cy)とカメラの焦点距離(fx、fy)が全て算出され、カメラキャリブレーション及び姿勢の計算が完了した。
ステップ2:ここでは、2つのステップに分けて自動的にイメージ平面と地面平面を生成する方法を説明する。
2−1.ロールαを用いて、実際のカメラ姿勢での画像位置を理想的な位置(水平のイメージ平面)に補正する。図3では、カメラ座標系で実際のイメージ平面が時計周りにロール角度αだけ回転して理想的なイメージ平面、すなわち地面に水平に置かれた状態になることを示す。図3の実線の長方形は実際のイメージ平面、破線の長方形は理想的なイメージ平面を示す。カメラ座標系で点の座標を(x、y)、理想イメージ平面座標系での座標を(x’、y’)と仮定する。そして実際の位置から理想的な位置まで、再キャリブレーションによりカメラの光学中心の周りに時計回りに回転させる。
2−2.ピッチ角θとカメラ高さhを用いて、理想イメージ平面を地面平面に投影する。図4は図2のカメラの実際の位置に関する概略図である。図4でカメラの光学中心(C)を地面平面に投影した点を座標系の原点とする。右手座標系で、X軸はカメラの水平右方向、Z軸はカメラの水平前方向である。図4の点C(O、h、0)はカメラの光学中心であり、0cはカメラの光学中心を
点距離である。地面平面に点P(X、Y、Z)があると仮定すると、点P’(x’,y’)は点Pを実際のイメージ平面に投影した点である。カメラ座標系では、下記数5の通りとなる。
前記数5より、下記数6を得る。
これから、下記数8を得る。
点距離である。地面平面に点P(X、Y、Z)があると仮定すると、点P’(x’,y’)は点Pを実際のイメージ平面に投影した点である。カメラ座標系では、下記数5の通りとなる。
2−3.実際のイメージ平面と地面平面に適切な参考点を選択する。実際の平面とイメージ平面に消失点がある影響を考えて、一般的に地面平面はカメラ視野の下方にする。ここで、理想イメージ平面(調整した水平のイメージ平面)に、主点座標Oc(cx,cy)を基準点として、理想イメージ平面上の4つの参考点に基づいた領域が構成される。反時計回りに参考点の座標はP’0(0,height)、P’1(width,height)、P’2(width,cy)とP’3(0,cy)とする。ここで、widthとheightは画像の幅さと高さである。前記領域を図5に示す。
2−4.ここでは、単位変換と地面平面に最終的に投影領域を構築することを述べる。これまでの手順から明らかなように、数9から取得した4つのポイントの単位はピクセル、数8から取
地面平面に投影した領域の四隅を表す。この領域(台形)を図6に示す。この台形領域の高さはa、下底はb、上底cの長さは、以下の通り。
図7に示す台形は実際のイメージ平面での投影領域である。この台形は地面平面の図6で示す台形と相似である(スケールファクタはK)。すなわち、実際のイメージ平面の下底部の中心点を基準として、スケールファクタKで図7に示す台形が構成される。実際のイメージ平面上の領域四隅の座標は以下の通りである。
以上で、単位転換が完了した。
ステップ1からステップ2までの処理で、実際のイメージ平面内のポイント集合{P1,P2,P3,
地面平面に投影した領域の四隅を表す。この領域(台形)を図6に示す。この台形領域の高さはa、下底はb、上底cの長さは、以下の通り。
以上で、単位転換が完了した。
ステップ3:このステップでは、実際のイメージ平面と地面イメージ平面の領域間の射影行列を計算する。実際のイメージ平面上のポイント集合{P1,P2,P3,P4}と地面イメージ平面上のポイ
イメージ平面と地面イメージ平面の間の射影変換行列である。ステップ1からステップ3までの処理で、カメラモジュールに基づいて地面平面の推定の準備が完了し、最後のステップ4に進む。
イメージ平面と地面イメージ平面の間の射影変換行列である。ステップ1からステップ3までの処理で、カメラモジュールに基づいて地面平面の推定の準備が完了し、最後のステップ4に進む。
ステップ4:このステップでは、最終的に地面平面(鳥瞰図)を生成する。カメラでリアルタイム的に画像を収集し、Homogeneous行列を用いて実際のイメージ平面から地面イメージ平面に変換する。カメラのハードウェアと姿勢が変わらない限り、このHomogeneous行列をそのままカメラで撮影された全ての画像フレームに適用できる。このため、処理時間を短縮することができる。
本発明は、自動車等の移動体に搭載されるカメラのみならず、すべてのカメラのキャリブレーションに利用することができる。
Claims (4)
- 自動車等の移動体に搭載される撮像手段によって撮影された画像から地面を推定する方法。
第1のステップは、カメラのキャリブレーションとローテーションの算出
第2のステップは、イメージ平面と地面平面を確定
第3のステップは、射影マトリックスを計算
第4のステップは、鳥瞰図を生成
の各ステップからなり、地面平面を推定する手段 - カメラの姿勢(高さと取付角度)を求めるため、回転マトリックスと並進マトリックスを用いて、カメラの高さと取付角度(ピッチ(pitch)、ロール(roll))の値を算出する。
請求項1の第1ステップは、
第10のステップで、画像収集を行う
第11のステップでカメラの内部パラメータを算出する
第12のステップでカメラのローテーション(姿勢)の計算を行う
の各ステップからなり、カメラの内部パラメータを補正する手段 - カメラの姿勢情報を用いて、自動的にイメージ平面と地面平面の参照点(リファレンスポイント)を算出し、射影変換マトリックスを算出する。
請求項1の第2ステップは、
第20のステップでイメージ平面を確定
第21のステップで地面平面を確定
第22のステップでリファレンスポイントで射影エリアを確定
第23のステップで単位変換(画素単位(ピクセル(pixel))から距離単位(メートル(m))へ変換)と地面平面を再構築の各ステップからなり、地面平面を確定する手段 - この手法はカメラ固有に機能や性能に制限はなく、またカメラの撮像素子の種類(CCDまたはCMOSなどの)、カメラの周波数(20Hz、100Hz、500Hzなど)やカメラの仕様・形態(単眼、ステレオ、トリプルなど)にも関係なく機能する。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020009509A JP2021111302A (ja) | 2020-01-07 | 2020-01-07 | カメラモジュールに基づいて自動的に地面を推定する方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020009509A JP2021111302A (ja) | 2020-01-07 | 2020-01-07 | カメラモジュールに基づいて自動的に地面を推定する方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021111302A true JP2021111302A (ja) | 2021-08-02 |
Family
ID=77060007
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020009509A Pending JP2021111302A (ja) | 2020-01-07 | 2020-01-07 | カメラモジュールに基づいて自動的に地面を推定する方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021111302A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114460552A (zh) * | 2022-01-21 | 2022-05-10 | 苏州皓宇云联科技有限公司 | 基于高精地图的路端多传感器联合标定方法 |
-
2020
- 2020-01-07 JP JP2020009509A patent/JP2021111302A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114460552A (zh) * | 2022-01-21 | 2022-05-10 | 苏州皓宇云联科技有限公司 | 基于高精地图的路端多传感器联合标定方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111982072B (zh) | 一种基于单目视觉的目标测距方法 | |
US11170466B2 (en) | Dense structure from motion | |
CN111750820B (zh) | 影像定位方法及其*** | |
US20160182793A1 (en) | Image distortion correction of a camera with a rolling shutter | |
JP2009129001A (ja) | 運転支援システム、車両、立体物領域推定方法 | |
JP7502440B2 (ja) | 環境のトポグラフィを測定するための方法 | |
CN112529966B (zh) | 一种车载环视***的在线标定方法及其车载环视*** | |
JP2004354257A (ja) | キャリブレーションずれ補正装置及びこの装置を備えたステレオカメラ並びにステレオカメラシステム | |
CN110827199A (zh) | 基于激光测距仪引导的隧道图像拼接方法及装置 | |
CN111091076B (zh) | 基于立体视觉的隧道限界数据测量方法 | |
KR101705558B1 (ko) | Avm 시스템의 공차 보정 장치 및 방법 | |
CN116433737A (zh) | 一种激光雷达点云与图像配准的方法、装置及智能终端 | |
JP2003178309A (ja) | 移動量推定装置 | |
Liu et al. | A novel adjustment model for mosaicking low-overlap sweeping images | |
KR100574227B1 (ko) | 카메라 움직임을 보상한 객체 움직임 추출 장치 및 그 방법 | |
Kinzig et al. | Real-time seamless image stitching in autonomous driving | |
CN110197104B (zh) | 基于车辆的测距方法及装置 | |
JP2021111302A (ja) | カメラモジュールに基づいて自動的に地面を推定する方法 | |
CN110503604B (zh) | 一种基于高精度pos的航空面阵影像实时正射拼接方法 | |
CN115100290B (zh) | 交通场景下的单目视觉定位方法及装置、设备、存储介质 | |
CN114754779B (zh) | 一种定位与建图方法、装置及电子设备 | |
JP7380443B2 (ja) | 部分画像生成装置及び部分画像生成用コンピュータプログラム | |
KR101293263B1 (ko) | 복수개의 영상을 합성한 합성 영상에서 거리 정보를 제공하는 기능을 구비하는 영상 처리 장치 및 방법 | |
JPH11190611A (ja) | 3次元計測方法およびその方法を用いた3次元計測処理装置 | |
US20230421739A1 (en) | Robust Stereo Camera Image Processing Method and System |