JP6154759B2 - カメラパラメータ推定装置、カメラパラメータ推定方法及びカメラパラメータ推定プログラム - Google Patents

カメラパラメータ推定装置、カメラパラメータ推定方法及びカメラパラメータ推定プログラム Download PDF

Info

Publication number
JP6154759B2
JP6154759B2 JP2014022575A JP2014022575A JP6154759B2 JP 6154759 B2 JP6154759 B2 JP 6154759B2 JP 2014022575 A JP2014022575 A JP 2014022575A JP 2014022575 A JP2014022575 A JP 2014022575A JP 6154759 B2 JP6154759 B2 JP 6154759B2
Authority
JP
Japan
Prior art keywords
camera parameter
camera
feature point
parameter estimation
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014022575A
Other languages
English (en)
Other versions
JP2015149675A (ja
Inventor
康輔 高橋
康輔 高橋
越智 大介
大介 越智
豊 國田
豊 國田
弾 三上
弾 三上
明 小島
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014022575A priority Critical patent/JP6154759B2/ja
Publication of JP2015149675A publication Critical patent/JP2015149675A/ja
Application granted granted Critical
Publication of JP6154759B2 publication Critical patent/JP6154759B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)

Description

本発明は、カメラパラメータを推定するカメラパラメータ推定装置、カメラパラメータ推定方法及びカメラパラメータ推定プログラムに関する。
画像や映像から撮影シーンの三次元形状推定、あるいは仮想視点からの画像を合成するといった幾何学的な処理を加えるには、撮影したカメラ(群)の内部パラメータ(焦点距離や画像中心など)や外部パラメータ(カメラ間の位置姿勢)といったカメラパラメータを推定するカメラキャリブレーションの処理が必要である。通常、画像ベースのカメラキャリブレーションは撮影前に専用の機材(チェスパターンなど)を用いて行われるが、この手法は撮影が開始されればカメラは固定であることを想定しており、カメラの焦点距離や位置情報が変化するような動的なカメラを利用する場合にはこの手法は適用が困難である。
これに対し、専用の機材を用いずに、画像に存在する情報からカメラキャリブレーションを行う手法が提案されている(例えば、非特許文献1参照)。これらの手法は複数台のカメラで撮影された画像(ただし、それぞれの画像は重複領域を持つ)に対して特徴点を検出し、特徴点間の対応をとり、それらを基にカメラキャリブレーションを行う。後者の手法は前者の手法とは異なり、専用の機材を必要としないため様々な撮影映像に適用可能である。ここでは後者のアプローチを自然特徴点ベースキャリブレーションと呼ぶこととする。この自然特徴点ベースキャリブレーションでは、ある画像のペアにおいて少なくとも8組以上の特徴点の対応を必要とし、対応の精度がカメラパラメータの推定精度に大きく影響をおよぼすことが知られている。
自然特徴点ベースキャリブレーションでは、撮影に用いているカメラ間の位置や姿勢の差が大きくなると、撮影された画像群において特徴点の見えが変わってしまい、本来対応付けられるべきでない特徴点同士が対応付けられる、あるいは対応付けられるべきである特徴点が対応付けられない場合があり、カメラパラメータの推定精度が低下するという問題がある。
この問題に対しては、処理対象が映像である場合には特徴点に対して時系列制約を課すことが有効であることが知られている。これはある時刻において求められた特徴点、およびそれらの正しい対応を他の時刻にも引き継ぐことで、特徴点の見えの連続的な変化による精度低下に対応したものである。ここではこのアプローチを画像ベース時系列制約と呼ぶこととする。
Noah Snavely, Steven M Seitz, Richard Szeliski,"Photo Tourism: Exploring image collections in 3D",ACM Transaction on Graphics (Proceedings of SIGGRAPH 2006), 2006
しかしながら、この画像ベース時系列制約を用いるためには、ある特徴点と、それに対応する特徴点が他の画像(他のカメラによって撮影された画像)上においても検出され、かつそれらが連続する複数時間に渡り検出され続けなければならない。そのため、カメラの移動や被写体の変化に伴う見えの急激な変化が発生する映像(例えば舞台のように照明変化を伴うコンテンツを手持ちカメラのような映像にブレの入りやすい環境で撮影されたもの)にはこの時系列制約は適用できない場合がある。
本発明は、このような事情に鑑みてなされたもので、推定するカメラパラメータの推定精度を向上させることができるカメラパラメータ推定装置及びカメラパラメータ推定プログラムを提供することを目的とする。
本発明は、複数のカメラで撮影された映像から前記複数のカメラのカメラパラメータを推定するカメラパラメータ推定装置であって、前記映像から特徴点を検出する特徴点検出部と、検出された前記特徴点の対応付けを行う特徴点対応付け部と、対応付けられた前記特徴点から前記カメラパラメータの推定値を算出するカメラパラメータ推定部と、既に推定された前記カメラパラメータの推定値に基づいてカメラパラメータの予測値を算出するカメラパラメータ予測部とを備え、前記特徴点対応付け部は、前記カメラパラメータの予測値から導出される特徴点の対応付けに関する制約を用いて対応付けを行うことを特徴とする。
本発明は、前記カメラパラメータ予測部は、既に推定された前記カメラパラメータの推定値のうち直前のものを前記カメラパラメータの予測値とし、前記特徴点対応付け部において用いる制約は、エピポーラ制約であることを特徴とする。
本発明は、前記カメラパラメータ予測部は、既に推定された前記カメラパラメータの推定値に基づいてカメラパラメータの予測値の確率分布を算出し、前記特徴点対応付け部は、前記確率分布に出現するカメラパラメータの予測値ごとに定まるエピポーラ制約と前記カメラパラメータの予測値に付与されている確率に基づいて特徴点間の対応付けを行うことを特徴とする。
本発明は、前記カメラパラメータ予測部が算出する前記確率分布は、既に推定された前記カメラパラメータの推定値に対して直前のものほど大きくなる重みを付与したことを特徴とする。
本発明は、前記カメラの位置及び姿勢の変化を計測するセンサを更に備え、前記カメラパラメータ推定部は、前記カメラパラメータの推定値を前記対応付けられた特徴点から算出できない場合に、過去に算出したカメラパラメータの推定値と前記センサにより計測されるカメラの位置及び姿勢の変化の度合いに基づいて前記カメラパラメータの推定値を算出することを特徴とする。
本発明は、コンピュータを、前記カメラパラメータ推定装置として機能させるためのカメラパラメータ推定プログラムである。
本発明によれば、推定するカメラパラメータの推定精度を向上させることができるという効果が得られる。
本発明の第1実施形態の構成を示すブロック図である。 図1に示すカメラパラメータ推定装置の処理動作を示すフローチャートである。 本発明の第2実施形態おけるカメラパラメータ推定装置の処理動作を示すフローチャートである。 本発明の第3実施形態おけるカメラパラメータ推定装置の処理動作を示すフローチャートである。 本発明の第5実施形態によるカメラパラメータ推定装置の構成を示すブロック図である。 本発明の第5実施形態おけるカメラパラメータ推定装置の処理動作を示すフローチャートである。 本発明によるカメラパラメータ推定装置を適用することによって得られるカメラパラメータのみを用いて多視点映像アプリケーションの例を示す説明図である。
<第1実施形態>
以下、図面を参照して、本発明の第1実施形態によるカメラパラメータ推定装置を説明する。以下で説明する実施形態では、自然特徴点ベースキャリブレーションにおいて、時系列制約を設けることによる精度向上を目指す上で、画像ベース時系列制約のように特徴点検出及び対応付けの連続性に着目した制約を設けるのではなく、推定されたカメラパラメータの連続性に着目した制約を特徴点の対応付けに設ける。まず、ある時刻tに推定されたカメラパラメータと、時刻tまでに推定されていたカメラパラメータから次時刻(t+1)におけるカメラパラメータの値(の範囲)を予測する。時刻(t+1)ではその予測された値を用いて特徴点対応に対して制約を課し、その制約の元で改めて時刻(t+1)のカメラパラメータを推定する。この手順を繰り返すことが本実施形態の概要である。本実施形態ではこのアプローチをカメラパラメータベース時系列制約と呼ぶ。
ここで、以下に示す表記について定義する。
(t):時刻tにカメラiによって撮影された画像。なお、本実施形態において各カメラは同期がとれているものとする。
(t):時刻tにおいて、カメラiの世界座標系における姿勢を表す回転行列。
ii’(t):時刻tにおいて、カメラiとカメラi’の姿勢の差分を表す回転行列。これはR(t),Ri’(t),T(t),Ti’(t)から求められる。
(t):時刻tにおいて、カメラiの世界座標系における位置を表す並進ベクトル。
ii’(t):時刻tにおいて、カメラiとカメラi’の位置の差分を表す並進ベクトル。これはR(t),Ri’(t),T(t),Ti’(t)から求められる。
(t):時刻tにおいて、カメラiの焦点距離および画像中心を表す行列。
(t):時刻tにカメラパラメータ推定部が出力するカメラiのカメラパラメータ(R(t),T(t),K(t)をまとめたもの)。
P’(t+1):時刻tにカメラパラメータ予測部が出力する時刻(t+1)のカメラiのカメラパラメータの予測値。
(t):I(t)上のj番目の特徴点の特徴量ベクトル。
(t):f (t)の画像平面上における座標値ベクトル。
(t):I(t)上の特徴点の特徴量ベクトルの集合。
(t):I(t)上の特徴点の座標値ベクトルの集合。
ii’(t):f(t),fi’(t)の対応付け結果。
(t):カメラiに付属した外部センサ(ジャイロセンサ、GPSなど)の出力する値。
図1は同実施形態によるカメラパラメータ推定装置の構成を示すブロック図である。この図において、符号1は、多視点映像を外部から入力する多視点映像入力部である。符号2は、入力した多視点映像から特徴点を検出する特徴点検出部である。符号3は、検出した特徴点の対応付けを行う特徴点対応付け部である。符号4は、対応付けされた特徴点からカメラパラメータを推定するカメラパラメータ推定部である。符号5は、所定時刻のカメラパラメータを予測するカメラパラメータ予測部である。符号6は、推定したカメラパラメータを出力するカメラパラメータ出力部である。自然特徴点ベースキャリブレーションは通常、特徴点検出部、特徴点対応付け部、カメラパラメータ推定部で構成されているが、それにカメラパラメータ予測部を加え、予測されたカメラパラメータを特徴点対応付け部に制約として用いるところが従来の自然特徴点ベースキャリブレーションとは異なる点である。
次に、図1を参照して、図1に示すカメラパラメータ推定装置の動作を説明する。まず、多視点映像入力部1は、画像列I(t)(i=0…n;nはカメラの台数)を入力する。次に、特徴点検出部2は、画像I(t)に対して特徴点検出を行い、f(t)を求める。
次に、特徴点対応付け部3は、if t=0であれば、各カメラのペア(i,i’)に対して、特徴点群f(t),fi’(t)に対して特徴点対応を行い、Mii’(t)を求める。一方、if t>0であれば、特徴点群f(t),fi’(t)に対してカメラパラメータ予測値P’(t),P’i’(t)を用いて制約を課して対応を求める。これにより、Mii’(t)が求められたことになる。
次に、カメラパラメータ推定部4は、全てのMii’(t)を用いてカメラパラメータP(t)を推定する。カメラパラメータ出力部6は、ここで推定した値を各時刻におけるカメラパラメータP(t)として出力する。推定できない場合は、カメラパラメータP(t)を出力しない。さらに、次時刻の処理を行う場合にはt=0に戻す。
次に、カメラパラメータ予測部5は、P(t’)(t’≦t)の値からP’(t+1)を予測する。そして、特徴点対応付け部3の処理に移行する。
次に、図1に示す特徴点検出部2、特徴点対応付け部3、カメラパラメータ推定部4、カメラパラメータ予測部5の詳細な処理動作を説明する。始めに、特徴点検出部2について説明する。特徴点検出部2は、入力した映像から特徴点を検出する。特徴点検出部2の入力は、画像I(t),(i=0,1,t≧0)である。また、出力は、特徴点の特徴量ベクトルの集合f(t)である。特徴点検出部2は、入力された画像I(t)から、特徴点検出器(Harris,SIFTなど)を用いて特徴点を検出し、各特徴点の特徴量ベクトルfij(t)の集合としてf(t)を出力する。
次に、特徴点対応付け部3について説明する。特徴点対応付け部3は、各画像における特徴量ベクトルの集合に関し、対応付けを行う。特徴点対応付け部3の入力は、特徴量ベクトルの集合f(t)(i=0,1,t≧0),カメラパラメータ予測値P’(t)である。また、出力は、対応付けベクトルMii’(t)(i’=0,1,i≠i’)である。特徴点対応付け部3は、t=0の時、与えられた特徴量ベクトルの集合f(t),fi’(t)において、画像iの各特徴点fij(t)が、画像i’のどの特徴点に対応しているかを計算し、その対応の結果をMii’(t)として出力する。t>0の時は、入力として与えられるカメラパラメータ予測値P’(t)を用いて対応付けに制約を設けた上で上記の処理を行い、対応の結果をMii’(t)として出力する。
次に、カメラパラメータ推定部4について説明する。カメラパラメータ推定部4は、撮影に用いられたカメラのカメラパラメータを推定する。カメラパラメータ推定部4の入力は、特徴点座標x(t),対応付けベクトルMii’(t)(i,i’=0,1,i≠i’,t≧0)である。また、出力は、カメラパラメータP(t)である。カメラパラメータ推定部4は、入力として与えられた特徴点の座標ベクトルx(t)と、対応付けベクトルMii’(t)からそれぞれの画像の撮影に用いられたカメラのカメラパラメータP(t)を推定する。ただし、特徴点の対応の数が少なくとも8組必要である。
次に、カメラパラメータ予測部5について説明する。カメラパラメータ予測部5は、時刻(t+1)におけるカメラパラメータを予測する。カメラパラメータ予測部5の入力は、カメラパラメータP(t’)(i=0,1,0≦t’≦t)である、また、出力は、カメラパラメータ予測値P’(t+1)である。カメラパラメータ予測部5は、時刻tまでに推定されたカメラパラメータP(t’)を用いて時刻(t+1)におけるカメラパラメータの値(及び範囲)の予測値P’(t+1)を出力する。
前述した処理動作は、以下の様な手法を適用することで実施が可能である。なお、本実施形態は、従来の自然特徴点ベースキャリブレーションの手順に対してカメラパラメータ予測部5の処理を加え、それを用いて特徴点対応付け部3に制約を課すものである。そのため、ここでは最初に自然特徴点ベースキャリブレーションの各手順において一般的な手法について説明し、その後のカメラパラメータ予測部5及び特徴点対応付け部3の制約の与え方に関して説明する。
まず、自然特徴点ベースキャリブレーションの各部位においてどのような手法を用いるかについて説明する。特徴点検出部2としては、SIFT特徴量(例えば、文献1「David G. Lowe,"Distinctive image features from scale- invariant keypoints",International Journal of Computer Vision,60, 2, 2004, pp.91-110」参照)を適用可能である。画像上の各特徴点はSIFTを用いて検出し、その画像上での位置、向き、および特徴量を出力する。特徴量の算出方法の詳細は上記文献1に記載されている公知の方法であるため、ここでは詳細な説明を省略する。
次に、特徴点対応付け部3としては、SIFT Matching(例えば、文献1「David G. Lowe,"Distinctive image features from scale- invariant keypoints",International Journal of Computer Vision,60, 2, 2004, pp.91-110」参照)を適用可能である。画像I(t)における各特徴点のSIFT特徴量ベクトルfij(t)に対し、画像Ii’(t)上の対応する特徴点を求める。なお、ある特徴点のペアが対応しているか否かは、それぞれの特徴量の各次元の差分のノルムを計算して定める。詳細な求め方は上記文献1に記載されている公知の方法であるため、ここでは詳細な説明を省略する。
次に、カメラパラメータ推定部4としては、Structure from Motion(例えば、文献2「Richard Hartley and Andrew Zisserman,"Multiple View Geometry in Computer Vision",Cambridge University Press, March 2004, pp. 262-278」参照)やBundle Adjustment(例えば、文献3「Bill Triggs, Phillip F. McKauchian, Richard Hartley, Andrew W. Fitzgibbon,"Bundle Adjustment - A Modern Synthesis",Vision Algorithm: Theory and Practice, 2000, pp.298-372」参照)を適用可能である。特徴点の座標ベクトルx(t)と対応付けベクトルMii’(t)から各カメラ間に成り立つ基礎行列を求め、それを分解することで内部パラメータ及び外部パラメータを求める(Structure from Motion)。さらに、求められたカメラパラメータの精度を高めるために、パラメータに対し、特徴点の再投影誤差を最小化する非線形最適化を行う(Bundle Adjustment)。なお、この処理は省略することも可能である。
次に、本実施形態の特徴であるカメラパラメータ予測部5と特徴点対応付け部3について説明する。カメラパラメータ予測部5は、時刻tにおけるカメラパラメータの推定値を時刻(t+1)におけるカメラパラメータの予測値として利用し、特徴点対応付け部3における制約として、エピポーラ制約を用いる場合について説明する。なお、ここでは簡単のため2視点の映像を処理するものとする。
カメラパラメータ予測部5は、以下の式で時刻(t+1)の値を定める。
P’(t+1)=P(t)(i=0,1,t≧0)
次に、特徴点対応付け部3は、t=0の時、前述した自然特徴点ベースキャリブレーションと同様の処理を行う。一方、t>0の時、カメラパラメータ予測部5が予測したカメラパラメータP’(t),P’(t)を用いて基礎行列を計算する。基礎行列Fii’(i,i’=0,1,i≠i’)は以下のように計算する。
ii’=Ki’ −T[Tii’× Rii’]K −1
ある三次元空間中の点を画像I(t),I(t)上に投影した時、それらの座標値をそれぞれx(t),xi’(t)とすると、基礎行列Fii’を用いて以下のエピポーラ制約が成り立つことが知られている。
(t)Fii’(t)xi’(t)=0 ・・・(1)
このとき、画像I(t)の各特徴点の特徴量ベクトルfij(t)に対し、それらの画像平面上における座標値をx(t)として(1)式に代入することで、xi’(t)の存在する範囲、すなわちfij(t)に対応する画像Ii’(t)上の特徴点の座標が存在する範囲を画像Ii’(t)の直線(エピ線)上に限定することができる。適切な対応が存在する領域を画像全体から直線にまで限定することで、本来対応付けられるべき特徴点よりも、たまたま特徴量の距離が近いために対応付けられるようなケースを減少させることが期待できる。なお、同一の特徴点を観測できる視点の数が増えれば、適用できる制約も増加する(例えば3視点ならばtrifocal tensor)。これら視点の数に応じた制約に関しては文献4「佐藤淳,“テンソルと多視点幾何”,情報処理学会研究報告CVIM,2007,pp:33−42」が詳しい。
以上から、具体的な対応を求める手順としては次のようになる。まず、画像I(t)の各特徴点の座標xij(t)に対し、(1)式を満たす画像Ii’(t)の特徴点を候補として挙げる。なお、実際にはピクセルノイズなどの影響で必ずしも(1)式の値が0になるとは限らないので、xij(t)Fii’(t)とxi’j(t)の画像上の距離が閾値以下のものを挙げる。ここで候補として挙げられた特徴点群に対してt=0の場合と同様の方法で対応をつける。これにより、カメラパラメータ予測値を制約として加えた特徴点対応が実現できる。
次に、図2を参照して、第1実施形態おけるカメラパラメータ推定装置(図1)の全体の処理動作を説明する。図2は、図1に示すカメラパラメータ推定装置の処理動作を示すフローチャートである。まず、多視点映像入力部1は、撮影された多視点映像を入力として与える(ステップS1)。これを受けて、特徴点検出部2は、多視点映像に対してSIFT特徴量を検出する(ステップS2)。
次に、特徴点対応付け部3は、時刻=0であるかを判定し(ステップS3)、時刻=0であれば、画像上の全ての特徴点を対応の候補とする(ステップS4)。そして、特徴点対応付け部3は、各特徴点をそれぞれの候補の中から対応づける(ステップS5)。
一方、時刻=0でなければ、特徴点対応付け部3は、予測されたカメラパラメータから基礎行列を計算する(ステップS6)。そして、特徴点対応付け部3は、各特徴点に対してエピ線を計算し、エピ線上に存在する特徴点を対応の候補とし(ステップS7)、各特徴点をそれぞれの候補の中から対応づける(ステップS5)。ステップS3〜S7の処理は、全てのカメラペアに対して適用する。
次に、カメラパラメータ推定部4は、特徴点の対応からカメラパラメータを推定する(ステップS8)。続いて、カメラパラメータ予測部5は、推定されたカメラパラメータを次の時刻のカメラパラメータ予測値とする(ステップS9)。
このように、第1実施形態はカメラのフレームレートが高く、カメラがほぼ動いていない場合に最も有効に働くことが期待される。
<第2実施形態>
次に、本発明の第2実施形態によるカメラパラメータ推定装置を説明する。第2実施形態によるカメラパラメータ推定装置の構成は、図1に示す構成と同様であるので、ここでは詳細な説明を省略する。本実施形態はカメラパラメータ予測部5においてランダムに次時刻の範囲を予測する場合について説明する。また、本実施形態では簡単のため2視点からの映像を処理するものとする。
本実施形態では第1実施形態のようにカメラパラメータ予測部5によるカメラパラメータ予測値を一意に定めるのではなく、カメラパラメータ推定部4によるカメラパラメータ推定値から次時刻に変動すると推定される範囲を定め、その範囲において求められたカメラパラメータをカメラパラメータ予測値として用いて、特徴点対応付け部3において利用する。例えば、回転行列Rii’(t)は3変数(x軸、y軸、z軸ごとの回転角度)で表現され、それぞれをθ(t)(k=x,y,z)とし、それぞれが±rの範囲で動くとすると、予測値θ’(t+1)は以下のように表される。
θ’(t+1)=θ(t)+Δθ(t),(k=x,y,z) ・・・(2)
|Δθ(t)|<r
今回考慮するパラメータは各カメラ間の回転行列に関する3変数、並進ベクトルに関する2変数、焦点距離に関する1変数の計6変数が考えられる。ただし、並進ベクトルのスケールを新たに変数として考慮してもよい。なお、並進ベクトルのノルムは1になるため、並進ベクトルでは、3変数でなく、2変数となる。
本実施形態を実装する際には、定めた範囲に対していくつかの段階に分けて全ての組み合わせについて計算してもよいが、範囲と分ける段階によっては計算量が膨大になる可能性がある。そのため、候補の数を予め指定しておき、定めた範囲内の値を適当な分布に従いランダムに値を出力させるようにしてもよい。
以下、具体的に説明する。まず、カメラパラメータP(t)は回転行列の3変数、並進ベクトルの2変数、及び焦点距離の1変数からなるとし、それらをp(t)(i=0,…,5)とする。各変数がそれぞれ±rの範囲で動くとすると、予測値p’(t+1)は以下のように表される。
p’(t+1)=p(t)+Δp(t),(i=0,…,5)
|Δp(t)|<r
この時、定めた範囲±rをs段階に分けるとすると、j番目の候補p’ji(t+1)に対する更新値Δpji(t)は以下のように表される。
Δpji(t)=j×(2×r/s),(j=0…(s−1))
この時、各変数についてそれぞれ更新値がs個得られるため、P’(t+1)の候補の数はs×s×s×s×s×s個存在する。つまり、先に述べたように計算量が膨大になる可能性がある。そこで、以下のようにランダムに与える方法もある。
P’(t+1)の候補の数を予めcとする。l番目の候補P’(t+1)に対する各変数p’ (t+1)の更新値Δp (t)は|Δp(t)|<rを満たすランダムな値が与えられる。
次に、図3を参照して、第2実施形態おけるカメラパラメータ推定装置の全体の処理動作を説明する。図3は、第2実施形態おけるカメラパラメータ推定装置の処理動作を示すフローチャートである。図3において、図2に示す処理動作を同じ処理動作には、同じ符号を付与してある。まず、多視点映像入力部1は、撮影された多視点映像を入力として与える(ステップS1)。これを受けて、特徴点検出部2は、多視点映像に対してSIFT特徴量を検出する(ステップS2)。
次に、特徴点対応付け部3は、時刻=0であるかを判定し(ステップS3)、時刻=0であれば、画像上の全ての特徴点を対応の候補とする(ステップS4)。そして、特徴点対応付け部3は、各特徴点をそれぞれの候補の中から対応づける(ステップS5)。
一方、時刻=0でなければ、特徴点対応付け部3は、予測されたカメラパラメータから基礎行列を計算する(ステップS6)。そして、特徴点対応付け部3は、各特徴点に対してエピ線を計算し、エピ線上に存在する特徴点を対応の候補とし(ステップS7)、各特徴点をそれぞれの候補の中から対応づける(ステップS5)。ステップS3〜S7の処理は、全てのカメラペアに対して適用する。
次に、カメラパラメータ推定部4は、特徴点の対応からカメラパラメータを推定する(ステップS8)。カメラパラメータ推定部4は、推定されたカメラパラメータのそれぞれにランダム値を与えて更新する(ステップS10)。そして、カメラパラメータ予測部5は、更新された値を次時刻のカメラパラメータ予測値とする(ステップS11)。
このように、第2実施形態はカメラの1時刻間に動く大きさがある程度わかっている場合に有効に働くことが期待される。
<第3実施形態>
次に、本発明の第3実施形態によるカメラパラメータ推定装置を説明する。第3実施形態によるカメラパラメータ推定装置の構成は、図1に示す構成と同様であるので、ここでは詳細な説明を省略する。本実施形態は、カメラパラメータ予測部5において、時刻t’(<t)までのカメラパラメータ推定値を基に次時刻のカメラパラメータの値(カメラパラメータ予測値)の確率分布を算出し、特徴点対応付け部3において、その確率分布を特徴点の対応付けに反映させる場合について説明する。なお、本実施形態ではベイジアンフィルタの考え方(特にパーティクルフィルタ)を例に用いてカメラパラメータ予測値の確率分布を算出する。また、本実施形態では簡単のため2視点からの映像を処理するものとする。
次に、図4を参照して、第3実施形態おけるカメラパラメータ推定装置の全体の処理動作を説明する。図4は、第3実施形態おけるカメラパラメータ推定装置の処理動作を示すフローチャートである。図4において、図2に示す処理動作を同じ処理動作には、同じ符号を付与してある。まず、多視点映像入力部1は、撮影された多視点映像を入力として与える(ステップS1)。これを受けて、特徴点検出部2は、多視点映像に対してSIFT特徴量を検出する(ステップS2)。
次に、特徴点対応付け部3は、時刻=0であるかを判定し(ステップS3)、時刻=0であれば、画像上の全ての特徴点を対応の候補とする(ステップS4)。そして、特徴点対応付け部3は、各特徴点をそれぞれの候補の中から対応づける(ステップS5)。
一方、時刻=0でなければ、特徴点対応付け部3は、予測されたカメラパラメータの尤度を計算する(ステップS12)。続いて、特徴点対応付け部3は、尤度付きカメラパラメータから基礎行列を計算する(ステップS13)。そして、特徴点対応付け部3は、各特徴点に対して尤度付きエピ線を計算し、エピ線上に存在する特徴点を対応の候補とし(ステップS14)、各特徴点をそれぞれの候補の中から尤度を考慮して対応づける(ステップS15)。ステップS3〜S5、S12〜S15の処理は、全てのカメラペアに対して適用する。
次に、カメラパラメータ推定部4は、特徴点の対応からカメラパラメータを推定する(ステップS8)。そして、カメラパラメータ予測部5は、次時刻のカメラパラメータを予測する(ステップS16)。
図4に示す処理動作では、時刻tのカメラパラメータの候補に対して尤度を計算するためには、時刻tの入力画像に対するSIFT特徴量が必要であるため、ステップS2において尤度計算を行っているが、ステップS16の予測の時点(時刻(t−1))で尤度計算をしてもかまわない。ただし、この場合は予測した時に、次時刻(時刻t)の入力画像に対してSIFT特徴量を計算する必要がある。また、このように処理の順番を変更しても算出結果に影響はない。
次に、第3実施形態おけるカメラパラメータ予測部5の処理について説明する。パーティクルフィルタは、公知の技術であるため、ここでは詳細な説明を省略するが、実際の問題に適用するには処理対象のモデル、状態推移関数及び尤度関数を定める必要がある。以下ではその具体例について説明し、さらに本発明が扱う問題特有の処理について説明する。
まず、今回予測したいのはカメラパラメータであることから、処理対象のモデルは各カメラパラメータ及びそれらの微分値などが考えられる。この時のモデルは後述する状態推移関数の定義によって変化するが、本実施形態では簡単のためカメラパラメータのみを処理対象のモデルとする。以下では時刻tにおけるこのモデルを状態ベクトルs(t)とする。今回カメラパラメータは回転行列では3次元、並進ベクトルでは2次元、焦点距離で1次元の計6次元であるとする。
次に状態推移関数はランダムウォークを想定する。システムノイズw(t)が平均0で共分散がΣの6次元正規分布に従うとすると、状態推移関数D(t)は以下のように定義できる。
s(t+1)=D(t)[s(t),w(t)]=s(t)+w(t)
ランダムウォークの状態推移関数は対象の動きが比較的小さい場合や複雑な動きの場合に用いられる。対象の動きが等速直線運動を仮定できるなら、それに合う状態ベクトルの定義と状態推移関数が必要である。
続いて、尤度関数の実施に関しては、本実施形態では、予測された状態ベクトルのもっともらしさとして「そのカメラパラメータを用いてエピポーラ制約をかけた時に求まる対応の組が妥当かどうか」を用いる。具体的には、各カメラパラメータを用いてエピポーラ制約をかけて求まる対応の組に対し、RANSAC処理を施す。この時RANSAC処理に用いるモデルとしてはエピポーラ制約を用いる。ここで、RANSAC処理を施した後の対応の組の数を施す前の対応の組の数で割った時の値を尤度として与える。
次に、第3実施形態おける特徴点対応付け部3の処理について説明する。上記で求められた確率分布を用いて特徴点対応付けを行う。具体的な手順としては、まず各特徴点x (t)に対し、各尤度付きのカメラパラメータの候補を用いることで尤度付きのエピ線を描く。そして、特徴点対応を求めるためにx (t)がそのエピ線上に乗っている特徴点x j’(t)に対して特徴量の距離を計算する際、エピ線が持つ尤度を距離に反映させる。すなわち、尤度の高いエピ線上に存在する特徴点とは対応が付けられやすく、尤度が低いエピ線上に存在する特徴点とは対応がつきにくくするというものである。
以上が予測されたカメラパラメータに対して確率(尤度)を与えた時の本発明の振る舞いである(例としてパーティクルフィルタを用いている)。カメラパラメータの確率を対応付けに付与することで、カメラパラメータのダイナミクスを対応付けに反映させることも可能になる。そのため、ダイナミクスを伴うカメラで撮影された映像を処理する時、第2実施形態などと比較して頑健かつ高精度にカメラパラメータを推定できることが期待される。
<第4実施形態>
次に、本発明の第4実施形態によるカメラパラメータ推定装置を説明する。第4実施形態によるカメラパラメータ推定装置の構成は、図1に示す構成と同様であるので、ここでは詳細な説明を省略する。本実施形態では、カメラパラメータ予測部5において前時刻の値だけでなく、前々時刻、さらにその前の時刻の値を利用する拡張方法について説明する。また、特徴点対応付け部3に関しては、第3実施形態で説明したカメラパラメータに付与された確率(尤度)を基に対応付けを行う手法を用いるものとする。
具体的な実現方法としては、まず用いる時刻分kを定め(例えば過去3時刻分用いるならk=3)、各時刻における推定値を用意する。第1実施形態では、それぞれの時刻における推定値をそのまま次時刻の予測値として用いていたが、カメラが動いている場合に時刻(t−l)(l<k)かつlが大きい場合には、その時刻の推定値を用いると、予測値としては妥当でないものとなる。そこで、本実施形態では各時刻の推定値には重みw(t−l)(ただし、Σlw(t−l)=1、これを第3実施形態で説明したようなカメラパラメータの確率(尤度)に相当するものとみなす)を付与することで対応する。この時の重みの設計の詳細については省略するが、基本的にはlが大きいほど、重みは小さくするのが妥当である。
本発明では推定されるカメラパラメータの信頼性が毎時刻同じとは限らず、突発的に推定精度が悪化する場合も存在する。本実施形態は前時刻だけでなくより過去のものを利用していることから、そのような場合でも頑健に働くことが期待される。また、同様の目的で、予測をする場合に次時刻ではなくてl時刻先の値を予測することも考えられる。具体的には、第2実施形態の(2)式の更新式をl回用いるなどで求めることができる。もちろん、これは前述したようにlが大きいほど重みを小さくすることが妥当である。以上のように、本実施形態では前時刻の値を制約として使う、あるいは次時刻の値を予測して用いるだけでなく、より過去の値を使う、より未来の値を予測して用いることも可能である。
<第5実施形態>
次に、本発明の第5実施形態によるカメラパラメータ推定装置を説明する。図5は同実施形態によるカメラパラメータ推定装置の構成を示すブロック図である。この図において、図1に示す装置と同一の部分には同一の符号を付し、その説明を省略する。この図に示す装置が図1に示す装置と異なる点は、外部センサデータ入力部7、カメラパラメータ推定部8が新たに設けられている点である。外部センサデータ入力部7は、ジャイロセンサやGPSなどの外部センサの値を入力する。カメラパラメータ推定部8は、時刻tにおけるカメラパラメータを推定する。カメラパラメータ推定部8の入力は、時刻(t−1)におけるカメラパラメータP(t−1),外部センサの出力値Ei(t)である。また、出力は、カメラパラメータP(t)である。カメラパラメータ推定部8は、P(t−1)に対して時刻tにジャイロセンサなどの外部センサが出力した値Ei(t)を用いてカメラパラメータを更新し、時刻tにおけるカメラパラメータP(t)を出力する。
次に、図5を参照して、図5に示すカメラパラメータ推定装置の動作を説明する。まず、特徴点検出部2は、多視点映像入力部1を介して、画像列I(t)を入力する。そして、特徴点検出部2は、画像I(t)に対して特徴点検出を行い、fi(t)を求める。
次に、特徴点対応付け部3は、if t=0であれば、各カメラのペア(i,i’)に対して、特徴点群f(t),fi’(t)に対して特徴点対応を行い、Mii’(t)を求める。一方、if t>0であれば、特徴点群f(t),fi’(t)に対してカメラパラメータ予測値P’(t),P’i’(t)を用いて制約を課して対応を求める。これにより、Mii’(t)が求められたことになる。
次に、カメラパラメータ推定部4は、全てのMii’(t)を用いてカメラパラメータP(t)を推定する。カメラパラメータ出力部6は、ここで推定した値を各時刻におけるカメラパラメータとして出力する。
次に、カメラパラメータ推定部8は、外部センサデータ入力部7を介してE(t)を入力し、カメラパラメータ推定部4において推定できない場合、P(t−1)に対してE(t)を用いてP(t)を推定してカメラパラメータとして出力する。
次に、カメラパラメータ予測部5は、P(t’)(t’≦t)の値からP’(t+1)を予測する。そして、特徴点対応付け部3の処理に移行する。
カメラパラメータ推定部8では、時刻tにおいて映像からカメラパラメータが求まらなくても、時刻(t−1)のカメラパラメータP(t−1)が求められていればP(t)が求められる。具体的には、ジャイロセンサ等を用いて時刻(t−1)から時刻tにおけるカメラの各軸に対する変化が角度として得られるので、それらを前時刻に推定された回転行列Ri(t−1)に加えることでR(t)が求められる。さらに、GPSでは時刻tにおけるカメラの位置が得られるので、それらを用いて並進ベクトルT(t)が求められる。なお、各時刻の内部パラメータK(t)(主に焦点距離)に関しては画像にEXIFタグとして保存されているものとする。これらを合わせて時刻tのカメラパラメータPi(t)として出力する。
このように外部センサを用いるのは基本的に映像からカメラパラメータが推定できない時(各カメラが重複領域を持っていない、重複領域を持っているが十分な特徴点対応が取れずに計算ができない)であり、映像から計算できる場合にはそちらの結果を優先することとする。
次に、図6を参照して、第5実施形態おけるカメラパラメータ推定装置の全体の処理動作を説明する。図6は、第5実施形態おけるカメラパラメータ推定装置の処理動作を示すフローチャートである。ここでは外部センサとしてジャイロセンサ及びGPSを利用する場合について説明する。まず、多視点映像入力部1は、特徴点検出部2に対して、撮影された多視点映像を入力として与える(ステップS21)。これを受けて、特徴点検出部2は、特徴点を検出する(ステップS22)。そして、特徴点対応付け部3は、特徴点を対応付ける(ステップS23)。続いて、カメラパラメータ推定部4は、カメラパラメータを推定する(ステップS24)。
一方、この動作と並行して、外部センサデータ入力部7は、外部センサの値を取得する(ステップS25)。カメラパラメータ推定部4は、カメラパラメータを推定可能であるか否かを判定し(ステップS26)。この判定の結果、推定可能でなければカメラパラメータ推定部8は、前時刻のカメラパラメータ推定値と外部センサの値から、現時刻のカメラパラメータを推定する(ステップS27)。そして、カメラパラメータ予測部5は、カメラパラメータを予測する(ステップS28)。
このように、本実施形態ではカメラと外部センサを組み合わせることで、映像からカメラパラメータが求まらない場合でも外部センサを用いてカメラパラメータを求め続けることができる。カメラパラメータ予測部に関しては、前述した手法を始め様々利用可能であるが、外部センサを用いた場合には精度のバラ付き、あるいはそもそも精度があまり良くないことが予想されるので、特徴点対応付けを行うときに第1実施形態のように前時刻の値をそのまま制約として使うのではなく、ある程度予測の範囲を広く持たせるものが望ましい。
<第6実施形態>
次に、本発明の第6実施形態によるカメラパラメータ推定装置を説明する。第6実施形態では、本発明によるカメラパラメータ推定装置の具体的なアプリケーションの例を説明する。本実施形態では本発明によるカメラパラメータ推定装置を用いることによって最も効果が得られると期待できるシーンと、その具体的な適用例について説明する。本発明によるカメラパラメータ推定装置は複数視点の映像を入力とし、各カメラのカメラパラメータを出力とすることから、様々な視点からの映像視聴を可能にする自由視点映像の生成に用いることができる。
さらに、本発明によるカメラパラメータ推定装置は、何も制約を用いない手法及び画像ベース時系列制約を用いた従来手法と比較して、カメラ間の距離が大きい時、そして撮影対象が動的な物体かつ撮影カメラが動的なカメラの時に効果が大きいことが期待できる。そのため、動的なカメラで動的な被写体を撮影して自由視点映像を作る場合、例えばライブイベントなどにおいてクレーンに乗ったカメラを複数用意し、それらの映像からライブの自由視点映像を合成する場合や、学芸会や運動会といったイベントを市販の手持ちカメラやスマートフォンを用いて撮影した映像を集めて自由視点映像を合成する場合などが考えられる。
本発明によるカメラパラメータ推定装置を適用するためには基本的に各カメラが少なくとも自身以外の1台のカメラと重複領域を持っていることが望ましい。そこで、学芸会などでは全体を映すカメラを1台用意することで、その学芸会を映しているカメラは少なくともその1台と重複領域を持つ状況を想定できる。これらのカメラによって撮影された映像を集めて同期を取り、各映像に対して本発明を適用することでカメラパラメータを推定する。さらに、たとえ重複領域を持たない時、つまり全体を映すカメラが用意されていない場合でも第5実施形態で説明したようにそれらのカメラがジャイロセンサやGPSといった外部センサを備えていればカメラパラメータを推定することも可能である。
<第7実施形態>
次に、本発明の第7実施形態によるカメラパラメータ推定装置を説明する。ここでは、本発明によるカメラパラメータ推定装置を適用することによって得られるカメラパラメータのみを用いて多視点映像アプリケーションの例について説明する。図7は、本発明によるカメラパラメータ推定装置を適用することによって得られるカメラパラメータのみを用いて多視点映像アプリケーションの例を示す説明図である。
まず、本アプリケーションでは複数台のカメラから撮影された多視点映像を視聴することを想定する。通常多視点映像が得られたとしてもそれぞれの映像がどこから撮影されているかは明らかにされておらず、その時々に応じて視聴者自身が判断するという手間が必要であった。これに対し、本発明を適用することで推定できる各カメラのカメラパラメータには各カメラの位置姿勢も含まれることから、本発明によってそれらの位置関係が把握できていることになる。本アプリケーションはこの位置関係を図7のカメラ選択用ディスプレイの用に鳥瞰図などの方法を用いてタッチパネルなどに提示し、視聴者が所望の視点を選択すると、その視点からの映像が映像提示用のディスプレイに映されるというものである。カメラ選択用ディスプレイによって視聴者は各映像がどの場所から撮影されたものなのか、この時刻に他のカメラはどの場所からどの場所を撮影しているのかが一目で分かるようになり、毎回各映像がどこから撮影されているかを判断する手間も省け、かつ視点を変更する際の補助となることが期待される。
以上説明したように、映像に対する自然特徴点ベースキャリブレーションにおいて、カメラ間の位置や角度の差が大きくなるに従い発生する特徴点の誤対応(及びそれに伴うカメラパラメータの推定精度低下)問題に関し、本実施形態を利用することで得られる以下の効果が得られる。
カメラパラメータベース時系列制約を用い、各特徴点の探索範囲を制限することで誤対応を減少させ、カメラパラメータの推定精度を向上させることができる。画像ベース時系列制約とは異なり、撮影画像に対して制約(特徴点が時間方向に連続して検出されなければならない、など)を設ける必要がないため、特徴点が検出できる全てのシーンに対して適用が可能である。
また、このカメラパラメータベース時系列制約は獲得した画像に対して時系列制約を課していないので、時刻tと時刻(t+1)の各画像において、検出される特徴点の位置が大きく異なる時、すなわち、舞台やライブのように照明の面滅が激しく発生する映像、ズームで人物などの動物体を撮影した映像などの状況において画像ベース時系列制約と比べて効果的である。
前述した実施形態におけるカメラパラメータ推定装置をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。
以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行ってもよい。
推定するカメラパラメータの推定精度を向上させることが不可欠な用途に適用できる。
1・・・多視点映像入力部、2・・・特徴点検出部、3・・・特徴点対応付け部、4・・・カメラパラメータ推定部、5・・・カメラパラメータ予測部、6・・・カメラパラメータ出力部、7・・・外部センサデータ入力部、8・・・カメラパラメータ推定部

Claims (10)

  1. 複数のカメラで撮影された映像から前記複数のカメラのカメラパラメータを推定するカメラパラメータ推定装置であって、
    前記映像から特徴点を検出する特徴点検出部と、
    検出された前記特徴点の対応付けを行う特徴点対応付け部と、
    対応付けられた前記特徴点から現時刻における前記カメラパラメータの推定値を算出するカメラパラメータ推定部と
    記カメラパラメータの推定値に基づいて、次時刻におけるカメラパラメータの予測値を算出するカメラパラメータ予測部とを備え、
    前記特徴点対応付け部は、
    前記カメラパラメータの予測値から導出される特徴点の対応付けに関する制約を用いて対応付けを行うことを特徴とするカメラパラメータ推定装置。
  2. 前記カメラパラメータ予測部は、既に推定された前記カメラパラメータの推定値に基づいてカメラパラメータの予測値の確率分布を算出し、
    前記特徴点対応付け部は、前記確率分布に出現するカメラパラメータの予測値ごとに定まるエピポーラ制約と前記カメラパラメータの予測値に付与されている確率に基づいて特徴点間の対応付けを行うことを特徴とする請求項1に記載のカメラパラメータ推定装置。
  3. 前記カメラパラメータ予測部が算出する前記確率分布は、既に推定された前記カメラパラメータの推定値に対して直前のものほど大きくなる重みを付与したことを特徴とする請求項に記載のカメラパラメータ推定装置。
  4. 前記カメラの位置及び姿勢の変化を計測するセンサを更に備え、
    前記カメラパラメータ推定部は、前記カメラパラメータの推定値を前記対応付けられた特徴点から算出できない場合に、過去に算出したカメラパラメータの推定値と前記センサにより計測されるカメラの位置及び姿勢の変化の度合いに基づいて現時刻におけるカメラパラメータの推定値を算出することを特徴とする請求項1からのいずれか1項に記載のカメラパラメータ推定装置。
  5. 複数のカメラで撮影された映像から前記複数のカメラのカメラパラメータを推定するカメラパラメータ推定装置であって、
    前記映像から特徴点を検出する特徴点検出部と、
    検出された前記特徴点の対応付けを行う特徴点対応付け部と、
    対応付けられた前記特徴点から前記カメラパラメータの推定値を算出するカメラパラメータ推定部と、
    既に推定された前記カメラパラメータの推定値に基づいてカメラパラメータの予測値を算出するカメラパラメータ予測部とを備え、
    前記特徴点対応付け部は、
    前記カメラパラメータの予測値から導出される特徴点の対応付けに関する制約を用いて対応付けを行い、
    前記カメラパラメータ予測部は、既に推定された前記カメラパラメータの推定値に基づいてカメラパラメータの予測値の確率分布を算出し、
    前記特徴点対応付け部は、前記確率分布に出現するカメラパラメータの予測値ごとに定まるエピポーラ制約と前記カメラパラメータの予測値に付与されている確率に基づいて特徴点間の対応付けを行うことを特徴とするカメラパラメータ推定装置。
  6. 前記カメラパラメータ予測部が算出する前記確率分布は、既に推定された前記カメラパラメータの推定値に対して直前のものほど大きくなる重みを付与したことを特徴とする請求項5に記載のカメラパラメータ推定装置。
  7. 前記カメラの位置及び姿勢の変化を計測するセンサを更に備え、
    前記カメラパラメータ推定部は、前記カメラパラメータの推定値を前記対応付けられた特徴点から算出できない場合に、過去に算出したカメラパラメータの推定値と前記センサにより計測されるカメラの位置及び姿勢の変化の度合いに基づいて前記カメラパラメータの推定値を算出することを特徴とする請求項5又は6に記載のカメラパラメータ推定装置。
  8. 複数のカメラで撮影された映像から前記複数のカメラのカメラパラメータを推定するカメラパラメータ推定装置が行うカメラパラメータ推定方法であって、
    前記映像から特徴点を検出する特徴点検出ステップと、
    検出された前記特徴点の対応付けを行う特徴点対応付けステップと、
    対応付けられた前記特徴点から現時刻における前記カメラパラメータの推定値を算出するカメラパラメータ推定ステップと、
    前記カメラパラメータの推定値に基づいて、次時刻におけるカメラパラメータの予測値を算出するカメラパラメータ予測ステップとを有し、
    前記特徴点対応付けステップにおいて、
    前記カメラパラメータの予測値から導出される特徴点の対応付けに関する制約を用いて対応付けを行うことを特徴とするカメラパラメータ推定方法。
  9. 複数のカメラで撮影された映像から前記複数のカメラのカメラパラメータを推定するカメラパラメータ推定装置が行うカメラパラメータ推定方法であって、
    前記映像から特徴点を検出する特徴点検出ステップと、
    検出された前記特徴点の対応付けを行う特徴点対応付けステップと、
    対応付けられた前記特徴点から前記カメラパラメータの推定値を算出するカメラパラメータ推定ステップと、
    既に推定された前記カメラパラメータの推定値に基づいてカメラパラメータの予測値を算出するカメラパラメータ予測ステップとを有し、
    前記特徴点対応付けステップにおいて、
    前記カメラパラメータの予測値から導出される特徴点の対応付けに関する制約を用いて対応付けを行い、
    前記カメラパラメータ予測ステップにおいて、既に推定された前記カメラパラメータの推定値に基づいてカメラパラメータの予測値の確率分布を算出し、
    前記特徴点対応付けステップにおいて、前記確率分布に出現するカメラパラメータの予測値ごとに定まるエピポーラ制約と前記カメラパラメータの予測値に付与されている確率に基づいて特徴点間の対応付けを行うことを特徴とするカメラパラメータ推定方法。
  10. コンピュータを、請求項1からのいずれか1項に記載のカメラパラメータ推定装置として機能させるためのカメラパラメータ推定プログラム。
JP2014022575A 2014-02-07 2014-02-07 カメラパラメータ推定装置、カメラパラメータ推定方法及びカメラパラメータ推定プログラム Expired - Fee Related JP6154759B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014022575A JP6154759B2 (ja) 2014-02-07 2014-02-07 カメラパラメータ推定装置、カメラパラメータ推定方法及びカメラパラメータ推定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014022575A JP6154759B2 (ja) 2014-02-07 2014-02-07 カメラパラメータ推定装置、カメラパラメータ推定方法及びカメラパラメータ推定プログラム

Publications (2)

Publication Number Publication Date
JP2015149675A JP2015149675A (ja) 2015-08-20
JP6154759B2 true JP6154759B2 (ja) 2017-06-28

Family

ID=53892719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014022575A Expired - Fee Related JP6154759B2 (ja) 2014-02-07 2014-02-07 カメラパラメータ推定装置、カメラパラメータ推定方法及びカメラパラメータ推定プログラム

Country Status (1)

Country Link
JP (1) JP6154759B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109544629B (zh) * 2018-11-29 2021-03-23 南京人工智能高等研究院有限公司 摄像头位姿确定方法和装置以及电子设备
JP7185162B2 (ja) * 2019-05-22 2022-12-07 日本電信電話株式会社 画像処理方法、画像処理装置およびプログラム
JP7409163B2 (ja) 2020-03-06 2024-01-09 株式会社豊田中央研究所 定置センサ較正装置、および、定置センサ較正方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4906683B2 (ja) * 2007-11-12 2012-03-28 日本放送協会 カメラパラメータ推定装置およびカメラパラメータ推定プログラム
JP5388932B2 (ja) * 2009-04-30 2014-01-15 キヤノン株式会社 情報処理装置およびその制御方法
JP6055223B2 (ja) * 2012-07-27 2016-12-27 日本放送協会 射影変換映像生成装置及びそのプログラム、並びに、多視点映像表現装置

Also Published As

Publication number Publication date
JP2015149675A (ja) 2015-08-20

Similar Documents

Publication Publication Date Title
US10755428B2 (en) Apparatuses and methods for machine vision system including creation of a point cloud model and/or three dimensional model
US10659768B2 (en) System and method for virtually-augmented visual simultaneous localization and mapping
US10334168B2 (en) Threshold determination in a RANSAC algorithm
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR102006043B1 (ko) 깊이 카메라를 이용한 머리 포즈 추적 기법
KR101708659B1 (ko) 이동 로봇의 맵을 업데이트하기 위한 장치 및 그 방법
WO2019062291A1 (zh) 一种双目视觉定位方法、装置及***
JP2011008687A (ja) 画像処理装置
CN111127524A (zh) 一种轨迹跟踪与三维重建方法、***及装置
US10861185B2 (en) Information processing apparatus and method of controlling the same
JP2009514066A (ja) 「フレーム毎かつピクセル毎コンピュータ映像用カメラフレーム合致モデル生成グラフィックス画像」
JP6061770B2 (ja) カメラ姿勢推定装置及びそのプログラム
US11398048B2 (en) Estimating camera pose
CN114120301A (zh) 一种位姿确定方法、装置及设备
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
JP6154759B2 (ja) カメラパラメータ推定装置、カメラパラメータ推定方法及びカメラパラメータ推定プログラム
Civera et al. Dimensionless monocular SLAM
Dong et al. Instantaneous video stabilization for unmanned aerial vehicles
CN114185073A (zh) 一种位姿显示方法、装置及***
Laskar et al. Robust loop closures for scene reconstruction by combining odometry and visual correspondences
Liu et al. LSFB: A low-cost and scalable framework for building large-scale localization benchmark
KR20210028538A (ko) 가상 현실에서 인사이드 아웃 트래킹을 위한 imu 센서 데이터를 활용하는 가속 비전 기반 포즈 추정 방법
JP2020120362A (ja) 画像処理装置、画像処理方法、及びプログラム
CN110546677A (zh) 在应用相互关联规则挖掘的增强现实技术中支持军用装备维修的服务器、方法及可穿戴设备
JP7262689B1 (ja) 情報処理装置、生成方法、及び生成プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170602

R150 Certificate of patent or registration of utility model

Ref document number: 6154759

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees