JP2015201734A - 画像処理装置、画像処理装置の制御方法およびプログラム - Google Patents
画像処理装置、画像処理装置の制御方法およびプログラム Download PDFInfo
- Publication number
- JP2015201734A JP2015201734A JP2014078978A JP2014078978A JP2015201734A JP 2015201734 A JP2015201734 A JP 2015201734A JP 2014078978 A JP2014078978 A JP 2014078978A JP 2014078978 A JP2014078978 A JP 2014078978A JP 2015201734 A JP2015201734 A JP 2015201734A
- Authority
- JP
- Japan
- Prior art keywords
- image
- distortion amount
- principal point
- unit
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
【課題】画像の歪みを軽減しつつ幾何学的な整合がとれた画像を提供する。【解決手段】画像表示装置であって、撮像装置の位置または姿勢の情報を取得する取得部と、位置または姿勢の変化量に基づいて画像の歪み量を導出する画像歪み量導出部と、歪み量に基づいて、撮像装置の光学系の主点位置の歪み量を導出する主点位置歪み量導出部と、画像の歪み量と主点位置の歪み量とに基づいて画像を補正する画像補正部とを備える。【選択図】 図1
Description
本発明は、画像処理装置、画像処理装置の制御方法およびプログラムに関するものである。
現実世界と仮想世界とをリアルタイムに融合させる技術として、複合現実感(MR:Mixed Reality)技術や拡張現実感(AR:Augmented Reality)技術が知られている。これらの技術は、現実空間とコンピュータによって作られる仮想空間とを繋ぎ目なく融合する技術である。これらは、組み立て作業時に作業手順や配線の様子を重畳表示する組み立て支援、患者の体表面に体内の様子を重畳表示する手術支援等、様々な分野への応用が期待される。
また、観察者が、仮想物体を現実空間に実在するように感じるための装置の一つとして、ビデオシースルー型の画像表示装置がある。これは、ビデオカメラで現実世界を撮影し、その画像に、仮想物体を重畳した合成画像を、リアルタイムに表示部に表示させ、観察者に提示する装置である。一般にこのような画像表示装置としては、背面にビデオカメラを有するタブレット端末と呼ばれる携帯型情報端末や、頭部搭載型のビデオシースルー型HMD(Head Mounted Display)などが用いられる。
非特許文献1では、ビデオカメラの光軸と、体験者の瞳中心と表示部の中心を通る軸とが一致するように配置設計されたビデオシースルー型HMDの構成が開示されている。ビデオカメラと表示部の光軸を一致するように設計することで、理論的には、幾何学的大きさの整合を保つことが可能になる。
また、近年ビデオカメラのイメージセンサとして、CMOSセンサがよく利用されるが、ライン露光順次読み出し方式またはローリングシャッター方式と呼ばれる方式を用いているため、ライン毎の露光タイミング及び読み出し時間のずれにより、画像が歪む現象が起きることが知られている。特に、素早く動く被写体を撮影した場合には、動く被写体が歪み、カメラを左右にパンニングした際には、画像全体が歪む現象が生じる。
非特許文献2では、ビデオカメラのストリーミング映像に対して、ローリングシャッター方式によって生じる画像の歪みを補正する技術が公開されている。画像から特徴を抽出して、時系列でのフレーム間での特徴点のトラッキングを行う。次に、トラッキングした特徴点を用いてホモグラフィーを推定することで、ローリングシャッター方式によって歪んだ画像の補正を行う。補正された画像を提示するために、元の画像から切り出された領域が表示される。
A.Takagi,S.Yamazaki,Y.Saito,and N.Taniguchi:"Development of a stereo video see−through HMD for AR systems",Proc.ISAR2000,pp.68−77,2000.
M.Grundmann,V.Kwatra,D.Castro,and I.Essa,"Calibration−Free Rolling Shutter Removal,"in Proceedings of IEEE Conference on Computational Photography(ICCP),2012.
ビデオシースルー型HMDに搭載されるビデオカメラがCOMSセンサを利用したものであった場合、人の頭の動きに併せて画像が歪むと現実感を損なってしまう。そのため、ローリングシャッターに起因する画像の歪みを補正する必要がある。
しかし、従来手法では、COMSのローリングシャッター方式に起因する画像の歪みを補正する際に、歪みを補正する前と歪みを補正した後で表示部に表示される画像の光軸がずれてしまう。そのため、ビデオカメラと表示部の光軸を一致するように設計されたビデオシースルー型HMDに表示した場合であっても、従来手法によって歪み補正した画像は、光軸がずれて表示されるので、幾何学的な整合を保つことができない。
本発明は、上記のような課題を鑑みてなされたものであり、画像の歪みを軽減しつつ幾何学的な整合がとれた画像を提供することを目的とする。
上記の目的を達成するために、本発明に係る画像処理装置は以下の構成を備える。即ち、
撮像装置の位置または姿勢の情報を取得する取得手段と、
前記位置または姿勢の変化量に基づいて画像の歪み量を導出する画像歪み量導出手段と、
前記歪み量に基づいて、前記撮像装置の光学系の主点位置の歪み量を導出する主点位置歪み量導出手段と、
前記画像の歪み量と前記主点位置の歪み量とに基づいて前記画像を補正する画像補正手段と、
を備える。
撮像装置の位置または姿勢の情報を取得する取得手段と、
前記位置または姿勢の変化量に基づいて画像の歪み量を導出する画像歪み量導出手段と、
前記歪み量に基づいて、前記撮像装置の光学系の主点位置の歪み量を導出する主点位置歪み量導出手段と、
前記画像の歪み量と前記主点位置の歪み量とに基づいて前記画像を補正する画像補正手段と、
を備える。
本発明によれば、画像の歪みを軽減しつつ幾何学的な整合がとれた画像を提供することができる。
MR技術(以降、複合現実技術や拡張現実技術を総称してMR技術と呼称する)において、現実世界と仮想世界との一体感を高めるためには、幾何学的な位置関係の整合性のみならず、幾何学的大きさの整合を保つことが求められる。ここでいう幾何学的大きさの整合とは、観察者が実際に現実を見る場合に知覚する世界や物体の大きさと、MR技術を通して知覚する世界や物体の大きさの一致を意味する。換言すればビデオシースルー型画像表示装置の使用時と非使用時とで観察者が現実の世界を同じ大きさで知覚できるか、ということである。ここで、ビデオカメラのレンズ中心から、画像面に垂直に引いた直線を光軸と呼び、光軸と画像面との交点を画像中心または主点(Principal point)と呼ぶ。
以下、添付図面を参照しながら、本発明の好適な実施形態について説明する。
(第1実施形態)
第1実施形態では、ローリングシャッター方式のCMOSセンサに起因するような撮像画像の歪みと主点位置のずれを補正した画像を、観察者110が表示部300を用いて観察する場合について説明する。
第1実施形態では、ローリングシャッター方式のCMOSセンサに起因するような撮像画像の歪みと主点位置のずれを補正した画像を、観察者110が表示部300を用いて観察する場合について説明する。
<1.画像処理装置の構成>
図1は、本実施形態に係る画像処理装置1000の構成例を示す図である。画像処理装置1000は、画像取得部1010と、姿勢取得部1020と、画像歪み量導出部1030と、主点位置歪み量導出部1040と、画像補正部1050と、表示制御部1060とを備えている。
図1は、本実施形態に係る画像処理装置1000の構成例を示す図である。画像処理装置1000は、画像取得部1010と、姿勢取得部1020と、画像歪み量導出部1030と、主点位置歪み量導出部1040と、画像補正部1050と、表示制御部1060とを備えている。
画像取得部1010は、撮像装置100と接続されており、姿勢取得部1020は、姿勢センサ200と接続されている。また、表示制御部1060は、表示部300と接続されている。
ここで、撮像装置100が撮像した画像の光軸方向と、観察者110が表示部300を通して観察する視軸方向とは、撮像部が静止しているとき、おおよそ一致している。また、観察者110の視点から見た表示部300の表示画角と、撮像装置100で撮像した画像の表示画角とをおおよそ一致させることが、幾何学的大きさの整合を保つために必要となる。幾何学的大きさの整合を保つためには、表示部300と撮像装置100とを高精度に組み付ける作業が必要になる。本実施形態では、図3に示すように、撮像部の撮像画角を、観察者110の視点から見た表示部300の表示画角より広角に設計しておき、観察者110の視点から見た表示部300の表示画角と一致させるように、画像を切出して表示する。
撮像装置100は、ローリングシャッター方式のCMOSセンサに起因するような画像の歪みを有する画像を撮像する。
画像取得部1010は、撮像装置100によって撮影された画像を、画像処理装置1000に入力する。画像取得部1010は、撮像装置100の出力が、IEEE1394などのデジタル出力であれば、例えば、IEEE1394インタフェースボードによって実現される。また撮像装置100の出力がNTSC信号などのアナログ出力であれば、アナログビデオキャプチャーボードによって実現される。また、予め不図示の記憶装置に記憶してある静止画や動画像のデジタルデータを読み出してもよい。
姿勢取得部1020は、姿勢センサ200が計測した姿勢情報を画像処理装置1000に入力する。姿勢取得部1020は、画像取得部1010が取得する画像の撮影時刻とほぼ同一時刻の姿勢情報を取得できるものとする。ここで、姿勢センサ200は、撮像装置100に固定されており、撮像装置100と姿勢センサ200との間の相対的な姿勢は、予め校正されているものとする。
そのため、姿勢センサ200の出力する姿勢情報として、撮像装置100の姿勢情報が計測できるものとする。また、画像取得部1010が予め不図示の記憶装置に記憶してある静止画像や動画像のデジタルデータを読み出す場合には、姿勢センサが出力する姿勢情報ではなく、予め記憶してある姿勢情報を読み出してもよい。
画像歪み量導出部1030は、姿勢取得部1020が取得した姿勢情報に基づいて、ローリングシャッター方式のCMOSセンサに起因するような画像歪み量を導出する。
主点位置歪み量導出部1040は、画像歪み量導出部1030から取得した画像歪み量に基づいて、主点位置歪み量を導出する。本実施形態では、主点位置は、撮像装置100の光学系を構成するレンズ中心から画像面に垂直に降ろした光軸と画像面とが交わる点とする。撮像装置100を静止させているとき、すなわちローリングシャッター方式のCMOSセンサに起因するような画像歪みの影響を受けないときの第1の主点位置(Cx、Cy)を、予め求めておく。
第1の主点位置は、通常、画像中心となるように設計されているが、実際にはわずかにずれているため、カメラキャリブレーションによって求める。キャリブレーションの手法は、何れの公知の方法を利用してもよい。一般的に、格子状の点の位置が既知のパターンを撮影し、放射歪みや接線方向の歪みを補正する歪み補正係数を求める際のレンズ歪み中心を、第1の主点位置として求めておく。
画像補正部1050は、画像歪み量導出部1030で求めた画像歪み量に基づいて、画像取得部1010で取得した画像を補正する。
表示制御部1060は、主点位置歪み量導出部1040で求めた主点位置歪み量を第1の主点位置に加えることで求めた第2の主点位置を中心とするように、予め設定しておいた画像サイズで切り出す。切り出した画像を、表示部300に出力する。
<2.画像処理装置が実施する処理>
次に、第1実施形態に係る画像処理装置1000が実施する処理の手順について説明する。図2は、本実施形態に係る画像処理装置1000が、撮像装置100と表示部300との光軸が略一致するように表示する処理の手順を示すフローチャートである。なお、同フローチャートに従ったプログラムコードは、本実施形態に係る画像処理装置1000の内不図示のRAMやROMなどのメモリ内に格納され、不図示のCPUにより読み出されて実行される。
次に、第1実施形態に係る画像処理装置1000が実施する処理の手順について説明する。図2は、本実施形態に係る画像処理装置1000が、撮像装置100と表示部300との光軸が略一致するように表示する処理の手順を示すフローチャートである。なお、同フローチャートに従ったプログラムコードは、本実施形態に係る画像処理装置1000の内不図示のRAMやROMなどのメモリ内に格納され、不図示のCPUにより読み出されて実行される。
ステップS2010において、画像取得部1010は、撮像装置100で撮像した画像を画像処理装置1000に取り込む。
ステップS2020において、姿勢取得部1020は、画像が撮影された時刻と同時刻に姿勢センサ200が計測した姿勢情報を、画像処理装置1000に取り込む。前フレームからの姿勢の変化量から、単位時間当たりの姿勢の変化量をΔsとする。姿勢は、ロール、ピッチ、ヨーの角度で表してもよいし、回転軸、回転角による表現であってもよい。また、クォータニオンで表現してもよい。本実施形態では、姿勢センサのドリフト誤差は補正されているものとし、ドリフトによる姿勢の影響を受けないものとする。
ステップS2030において、画像歪み量導出部1030は、画像取得部1010により取得された画像について画像歪み量を導出する。ローリングシャッター方式のCMOSセンサは露光タイミングがライン毎に異なるため、撮像装置100の位置姿勢に変化があった場合に画像が歪む。また、撮影対象が移動した際にも画像が歪む。特に、HMDを装着したユーザが頭を横に素早く振るような動きの場合に顕著に画像が歪む。そこで、本実施形態では、姿勢の変化量Δsに応じた歪み量の画素ごとの参照テーブル(Look up table)を規定しておき、姿勢の変化量Δsに応じて参照し、各画素の画像歪み量Δdijを導出する。ここで、i=1,2,・・・I、j=1,2,・・・Jである。iはx座標を、jはy座標を表し、Iは画像サイズの横幅、Jは画像サイズの縦幅を示す。ただし、歪み量の導出方法は、参照テーブルを用いずに、何れの公知の方法を用いてもよい。例えば、姿勢の変化量Δsに応じた歪み量の関係式f(Δs)をたてて導出してもよい。
ステップS2040において、主点位置歪み量導出部1040は、主点位置の歪み量Δeの導出を行う。本実施形態では、撮像部の撮像画角と、観察者110の視点から見た表示部300の表示画角とが異なることを想定している。したがって、図3に示すように、観察者の視点から見た表示部300の表示画角と一致させる画像サイズによって、主点位置を画像中心とするように画像を切出して表示することで、幾何学的な大きさの整合を保っている。図3の太線3000の領域が、表示部300に表示される領域となる。ここで、ローリングシャッター方式の撮像センサに起因して画像の歪みが発生すると、図4に示すように、第1の主点位置は、第2の主点位置(C'x,C'y)に歪んでしまう。すなわち、Δe(=(C'x,C'y)−(Cx,Cy))だけずれてしまう。本実施形態では、この主点位置歪み量Δeを主点位置(Cx,Cy)における歪み量ΔCxCyとして求める。したがって、Δe=ΔCxCyとする。
ステップS2050において、画像補正部1050は、ステップS2030にて求めた各画素の画像歪み量Δdijと主点位置歪み量Δeとに基づいて、歪み後の主点位置を中心に画像を補正する。歪み後の主点位置を中心にした各画素の歪み量Δd'ijは、Δe−Δdijにより導出する。
ステップS2060において、画像補正部1050は、ステップS2040で求めた主点位置(C'x,C'y) を画像中心とするように、予め設定された画像サイズで切出し処理を行う。
ステップS2070において、表示制御部1060は、第2の主点位置(C'x,C'y) を画像中心とするように表示位置を修正して、表示部300に表示する。
以上説明したように、ローリングシャッター方式の撮像センサで取得した画像において、主点位置における歪み量を求め、歪み後の主点位置を中心に補正し、歪後の主点位置を中心に画像を設定されたサイズで切出す。これにより、レンズ中心から画像面に垂直に降ろした光軸と画像面とが交わる点である主点位置とのずれを補正することができ、撮像装置と表示部の光軸を一致させることができる。したがって、理論的に、幾何学的大きさの整合を保つことが可能になる。また、主点位置のずれに起因して起こる観察者の違和感を軽減することが可能になる。
(第2実施形態)
第1実施形態では、姿勢取得部1020は、撮像装置100に固定された姿勢センサ200を用いて撮像装置100の姿勢を取得していた。また、姿勢の変化量Δsに応じた歪み量の画素ごとの参照テーブル(Look up table)を規定しておき、姿勢の変化量Δsに応じて参照し、各画素の画像歪み量を導出していた。
第1実施形態では、姿勢取得部1020は、撮像装置100に固定された姿勢センサ200を用いて撮像装置100の姿勢を取得していた。また、姿勢の変化量Δsに応じた歪み量の画素ごとの参照テーブル(Look up table)を規定しておき、姿勢の変化量Δsに応じて参照し、各画素の画像歪み量を導出していた。
一方で、ローリングシャッター方式のCMOSセンサに起因するような画像歪みは、撮像装置100の姿勢変化だけでなく、位置変化によっても起こり得る。そこで、位置の変化量Δdに応じて各画素の画像歪み量Δdijを求めてもよい。ここで、i=1,2,・・・I、j=1,2,・・・Jである。iはx座標を、jはy座標を表し、Iは画像サイズの横幅、Jは画像サイズの縦幅を示す。
図5は、本実施形態に係る画像処理装置5000の構成例を示す図である。画像処理装置5000の構成は、第1実施形態における画像処理装置1000の姿勢取得部1020を、位置取得部5010で置き換え、画像歪み量導出部1030を画像歪み量導出部5020で置き換えたものである。また、撮像装置100については姿勢センサ200を、位置センサ400で置き換える。ここで、位置センサ400は、光学式のものであってもよいし、磁気式のものであってもよい。また、撮像装置100の位置を撮像の更新レート以下の更新レートで計測可能であれば、公知の何れの位置センサであってもよい。撮像装置100と位置センサ400とのの間の相対位置は、予め校正されて既知であるものとする。
位置取得部5010は、位置センサ400から撮像装置100の位置情報を取得する。
画像歪み量導出部5020は、歪み量の画素ごとの参照テーブル(Look up table)を規定しておき、位置の変化量Δdに応じて参照し、各画素の画像歪み量Δdijを求める。ここで、歪み量の導出方法は、位置の変化量に応じて求める方法であれば、何れの公知の方法を用いてもよい。例えば、位置の変化量Δdに応じた歪み量の関係式f(Δd)をたてて導出してもよい。
以上説明したように、各画素の画像歪み量Δdijを求めることができれば、第1の実施形態で述べたように、第2の主点位置を求めることができる。第2の主点位置(C'x,C'y) を画像中心とするように表示位置を修正して、表示部に表示することで、撮像装置と表示部の光軸を略一致させることができる。したがって、理論的に、幾何学的大きさの整合を保つことが可能になり、主点位置のずれに起因して起こる観察者の違和感を軽減することが可能になる。
(第3実施形態)
第1実施形態では、姿勢取得部1020は、撮像装置100に固定された姿勢センサ200を用いて撮像装置100の姿勢を取得していた。第2の実施形態では、位置取得部5010は、位置センサ400を用いて撮像装置100の位置を取得していた。そして、取得した撮像装置100の姿勢または位置の変化量に応じた歪み量の画素ごとの参照テーブル(Look up table)を予め規定しておき、それを参照することで、歪み量を求めていた。
第1実施形態では、姿勢取得部1020は、撮像装置100に固定された姿勢センサ200を用いて撮像装置100の姿勢を取得していた。第2の実施形態では、位置取得部5010は、位置センサ400を用いて撮像装置100の位置を取得していた。そして、取得した撮像装置100の姿勢または位置の変化量に応じた歪み量の画素ごとの参照テーブル(Look up table)を予め規定しておき、それを参照することで、歪み量を求めていた。
一方、撮像装置100の姿勢または位置の変化量に応じた歪み量の導出は、予め規定しておいた参照テーブルを用いず、撮像装置100で撮影した画像から歪み量を求めてもよい。本実施形態では、撮像装置100で撮影した画像から歪み量を求める例について説明する。
図6は、本実施形態に係る画像処理装置6000の構成例を示す図である。画像処理装置6000は、画像取得部1010と、主点位置歪み量導出部1040と、画像補正部1050と、表示制御部1060と、指標検出部6010と、投影座標推定部6020と、位置姿勢取得部6030と、画像歪み量導出部6040とを備えている。また、画像処理装置6000は、位置姿勢センサ600と接続されている。
画像取得部1010、主点位置歪み量導出部1040、画像補正部1050、表示制御部1060、撮像装置100、表示部300、観察者110は、第1の実施形態と同様のため説明を省略する。
指標検出部6010は、環境中に配置した指標を画像から検出し、指標の検出座標(vx,vy)を抽出する。指標は、例えば図7に示すような正方形指標700であって、内部に識別子を表すパターンを持ち、一意に同定可能であるものとする。正方形指標の3次元空間における位置は、正方形の中心、すなわち2本の対角線の交点であるとする。また、指標の法線方向をz軸とし、x軸、y軸を指標の2つの辺に平行になるように正方形指標の座標系をとる。正方形指標は、予め基準座標系における位置を求めて既知である。基準座標系は、撮像装置100の位置や姿勢の計測の基準となる座標系である。指標は、画像から検出でき、一意に同定可能であれば、正方形指標に限るものではなく、何れの公知の指標であってもよい。
投影座標推定部6020は、指標の投影座標情報を推定する。以下で、指標の投影座標(ux,uy)の推定方法について説明する。
はじめに透視投影変換について説明する。図8は、カメラ座標系及び画面座標系を説明する図である。画面座標系の原点oiは視軸と画像面の交点にとり、画像の水平方向をxi軸、垂直方向をyi軸にとる。また、カメラ座標系の原点ocと画像面との距離(焦点距離)をfとし、カメラ座標系のzc軸は視軸の反対方向、xc軸は画像の水平方向と平行に、yc軸は画像の垂直方向と平行にとる。
透視投影変換により、カメラ座標系上の点xc=[xcyczc]tは式(1)のように画面座標がu=[uxuy]tである点に投影される。
式(1)は、図8に示すように、空間中の点と、該点の画像上の投影点とカメラ位置(視点)は同一直線上に存在することを示しており、共線条件式とも呼ばれる。
基準座標系におけるカメラの位置をt=[txtytz]t、カメラの姿勢(実際には、カメラ座標系に対する基準座標系の姿勢)をω=[ωxωyωz]であるとする。ωは3自由度の姿勢表現方法であり、姿勢を回転軸ベクトル及び回転角で表現している。回転角をraとすると、raはωによって式(2)のように表される。
また、回転軸ベクトルをr=[rxryrz]tとすると、rとωの関係は式(3)のように表される。
ω(回転角ra、回転軸ベクトルr)と3×3回転変換行列Rとの関係は式(4)のように表される。
基準座標系上の点xw=[xwywzw]tのカメラ座標xcはt、Rによって式(5)のように表される。
式(1)、(5)から、透視投影変換によって、基準座標上の点xw=[xwywzw]tは式(6)のように画像上の点u=[uxuy]tに投影される。
位置姿勢取得部6030は、位置姿勢センサ600から位置姿勢の情報を取得する。位置姿勢センサ600は、光学センサであってもよいし、磁気式センサであってもよい。また、撮像装置100の位置姿勢を撮像の更新レート以下の更新レートで計測可能であれば、公知の何れの位置姿勢センサであってもよい。撮像装置100と位置姿勢センサ600との間の相対位置姿勢は、予め校正されて既知であるものとする。
画像歪み量導出部6040は、基準座標系での既知の指標の位置、画像上で検出した指標の画像座標、投影座標推定部6020で推定した指標の投影座標、位置姿勢取得部6030で取得した撮像装置100の位置姿勢に基づいて、画像歪み量を導出する。
以下では、画像歪み量を導出する方法について説明する。動画像の1フレーム分の更新にかかる間、撮像装置100の位置または姿勢の変化量が一定である場合、この差を打ち消すように画像に対してアフィン変換を行うことで補正できる。したがって、ここでは、アフィン変換行列を求めればよい。
アフィン変換行列Pを求める方法を説明する。ある画素値(x,y)が、アフィン変換行列Pによって(x',y')に変換されるとき、次式のように表せる。
ここで、アフィン変換行列Pは次式のように表せる。
式(8)を式(7)に代入すると、次式のように表せる。
ここで、指標の検出座標を(x',y')とし、指標の投影座標を(x,y)とすると、3点以上の点を検出できれば、式(9)を解くことができ、アフィン変換行列Pを求めることができる。
求めたアフィン変換行列Pを各画素に対してかけることで、ローリングシャッターの影響を打ち消すように画像を変換することができる。変換後と変換前の差を歪み補正量Δdijとして求める。以上のようにして、各画素の画像歪み量Δdijを求めてもよい。
第1実施形態と同様に、ローリングシャッター方式のCMOSセンサに起因するような画像歪みの影響を受けないときの予め求めておいた第1の主点位置(Cx、Cy)が、歪みの影響を受けて第2の主点位置(C'x,C'y) となる。第1の主点位置(Cx、Cy)における画像歪み量Δdijによって第2の主点位置(C'x,C'y) を求め、第2の主点位置(C'x,C'y) を画像中心とするように、予め設定された画像サイズで切出し処理を行う。
以上説明したように、ローリングシャッター方式の撮像センサに起因して発生した画像において、予め参照テーブルを持たない場合であっても、各画素の画像歪み量Δdijを求めることができる。撮像した画像から第1の主点位置における歪み量を求め、第2の主点位置(C'x,C'y) を求めることができる。第2の主点位置(C'x,C'y) を画像中心とするように表示位置を修正して、表示部に表示することで、撮像装置と表示部の光軸を略一致させることができる。したがって、理論的に、幾何学的大きさの整合を保つことが可能になり、主点位置のずれに起因して起こる観察者の違和感を軽減することが可能になる。
(第4実施形態)
第1至第3実施形態では、取得した撮像装置100の位置おまたは姿勢の一方あるいは両方を用いて、撮像装置100の位置おまたは姿勢の一方あるいは両方の変化量に応じた歪み量を求めていた。しかし、取得した撮像装置100の位置姿勢をそのまま利用するのではなく、変化量に基づいて、予測される撮像装置100の位置姿勢に基づいて、歪み量を求めてもよい。
第1至第3実施形態では、取得した撮像装置100の位置おまたは姿勢の一方あるいは両方を用いて、撮像装置100の位置おまたは姿勢の一方あるいは両方の変化量に応じた歪み量を求めていた。しかし、取得した撮像装置100の位置姿勢をそのまま利用するのではなく、変化量に基づいて、予測される撮像装置100の位置姿勢に基づいて、歪み量を求めてもよい。
例えば、連続した2つの画像を撮影した時点での撮像装置100の位置または姿勢の変化量から、次のフレームにおける撮像装置100の位置または姿勢を予測することができる。予測された位置または姿勢に基づいて、第1至第3実施形態と同様に、各画素の画像歪み量Δdijを求めてもよい。予め求めておいたローリングシャッター方式のCMOSセンサに起因するような画像歪みの影響を受けないときの第1の主点位置(Cx、Cy)が、歪みの影響を受けて第2の主点位置(C'x,C'y) となる。主点位置(C'x,C'y) を画像中心とするように、予め設定された画像サイズで切出し処理を行う。
以上説明したように、ローリングシャッター方式の撮像センサにより取得された画像において、予測した撮像装置の位置と姿勢を用いた場合であっても、各画素の画像歪み量Δdijを求めることができる。予測した撮像装置の位置と姿勢を用いて、第1の主点位置における歪み量を求め、第2の主点位置(C'x,C'y) を求めることができる。第2の主点位置(C'x,C'y) を画像中心とするように表示位置を修正して、表示部に表示することで、撮像装置と表示部の光軸を略一致させることができる。したがって、理論的に、幾何学的大きさの整合を保つことが可能になり、主点位置のずれに起因して起こる観察者の違和感を軽減することが可能になる。
(第5実施形態)
図1、図5、図6に示した、画像処理装置1000、5000、6000を構成する各部は全て、上記実施形態ではハードウェアで構成されているとして説明した。しかし,その一部をソフトウェアで構成しても良い。その場合、残りの部分をハードウェアとして実装しているコンピュータに、当該ソフトウェアを実行させることで、コンピュータは、上記実施形態で説明した各画像表示装置の動作を行うことになる。
図1、図5、図6に示した、画像処理装置1000、5000、6000を構成する各部は全て、上記実施形態ではハードウェアで構成されているとして説明した。しかし,その一部をソフトウェアで構成しても良い。その場合、残りの部分をハードウェアとして実装しているコンピュータに、当該ソフトウェアを実行させることで、コンピュータは、上記実施形態で説明した各画像表示装置の動作を行うことになる。
図9は、本実施形態に係るハードウェア構成例を示すブロック図である。CPU9001は、RAM9002やROM9003に格納されているプログラムやデータを用いて、コンピュータ全体の制御を行うと共に,上記各実施形態で画像処理装置が行うものとして説明した上述の各処理を実行する。
RAM9002は、外部記憶装置9007や記憶媒体ドライブ9008からロードされたプログラムやデータを一時的に記憶するための領域を有する。更にRAM9002は、I/F(インターフェース)9009を介して外部から受信したデータを一時的に記憶するためのエリアを有する。このとき、外部とは姿勢センサ200、撮像装置100を指す。また,外部からの受信データとは、図5の場合、位置センサ400、撮像装置100を指す。図6の場合、位置姿勢センサ600、撮像装置100を指す。
更に、RAM9002は,CPU9001が各処理を実行する際に用いるワークエリアも有する。即ち、RAM9002は、各種エリアを適宜提供することができる。ROM9003には、コンピュータの設定データやブートプログラムなどが格納されている。キーボード9004、マウス9005は、操作入力装置の一例としてのものであり、コンピュータのユーザが操作することで、各種の指示をCPU9001に対して入力することができる。表示部9006は、ビデオシースルータイプのHMDなどにより構成されており,CPU9001による処理結果を画像や文字などで表示することができる。
外部記憶装置9007は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置9007には、OS(オペレーティングシステム)や、画像処理装置が行うものとして説明した上述の各処理をCPU9001に実行させるためのプログラムやデータが格納されている。プログラムには、画像取得部1010、姿勢取得部1020、画像歪み量導出部1030、主点位置歪み量導出部1040、画像補正部1050、表示制御部1060等のそれぞれに対応するプログラムが含まれている。
また、データには、仮想空間のデータや、上述の説明において、既知の情報として説明したものが含まれている。外部記憶装置9007に保存されているプログラムやデータは、CPU9001による制御に従って適宜RAM9002にロードされる。CPU9001はロードされたプログラムやデータを用いて処理を実行することで、画像表示装置が行うものとして上述した各処理を実行することになる。
記憶媒体ドライブ9008は、CD−ROMやDVD−ROMなどの記憶媒体に記録されたプログラムやデータを読み出したり、当該記憶媒体にプログラムやデータを書き込んだりする。なお、外部記憶装置9007に保存されているものとして説明したプログラムやデータの一部若しくは全部を記憶媒体に記録しておいても良い。記憶媒体ドライブ9008が記憶媒体から読み出したプログラムやデータは、外部記憶装置9007やRAM9002に対して出力される。
I/F9009は、撮像装置100を接続するためのアナログビデオポートあるいはIEEE1394等のデジタル入出力ポート、また、合成画像を表示部300に対して出力するためのDVIポートなどによって構成される。I/F9009を介して受信したデータは、RAM9002や外部記憶装置9007に入力される。なお、図1に示した画像取得部1010の機能の一部は、I/F9009によって実現される。また、位置姿勢の取得にセンサシステムを用いる場合、このI/F9009には、センサシステムを接続することになる。9010は、上述の各部を繋ぐバスである。
上述の各実施形態において説明したように、本発明によれば、CMOSを利用したビデオカメラを搭載するビデオシースルー型画像表示装置において、ローリングシャッター方式に起因する画像歪みが起こる際にも、主点位置のずれを補正することができる。これにより、ローリングシャッター方式に起因する画像歪みが起こった際にも、ビデオカメラの光軸と、体験者の瞳中心と表示部の中心を通る軸を一致させることを実現でき、幾何学的な整合を保つことができる。したがって、従来のビデオシースルー型の画像表示装置を利用した場合よりも、幾何学的な整合がとれた映像を体験者に提供することができ、より現実であるかのように感じられる体験が可能になる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
100:撮像装置
110:観察者
200:姿勢センサ
300:表示部
400:位置センサ
600:位置姿勢センサ
700:正方形指標
1000、5000、6000:画像処理装置
1010:画像取得部
1020:姿勢取得部
1030、5020、6040:画像歪み量導出部
1040:主点位置歪量導出部
1050:画像補正部
1060:表示制御部
5010:位置取得部:
6010:指標検出部
6020:投影座標推定部
6030:位置姿勢取得部
110:観察者
200:姿勢センサ
300:表示部
400:位置センサ
600:位置姿勢センサ
700:正方形指標
1000、5000、6000:画像処理装置
1010:画像取得部
1020:姿勢取得部
1030、5020、6040:画像歪み量導出部
1040:主点位置歪量導出部
1050:画像補正部
1060:表示制御部
5010:位置取得部:
6010:指標検出部
6020:投影座標推定部
6030:位置姿勢取得部
Claims (11)
- 撮像装置の位置または姿勢の情報を取得する取得手段と、
前記位置または姿勢の変化量に基づいて画像の歪み量を導出する画像歪み量導出手段と、
前記歪み量に基づいて、前記撮像装置の光学系の主点位置の歪み量を導出する主点位置歪み量導出手段と、
前記画像の歪み量と前記主点位置の歪み量とに基づいて前記画像を補正する画像補正手段と、
を備えることを特徴とする画像処理装置。 - 前記画像補正手段は、前記主点位置の歪み量に基づいて主点位置を補正して、当該主点位置が画像中心となるように予め設定された画像サイズで画像を切り出すことを特徴とする請求項1に記載の画像処理装置。
- 前記画像補正手段は、前記撮像装置の撮像画角と、画像を表示する表示部の表示画角とが略一致するように画像から表示する領域を切り出すことを特徴とする請求項1または2に記載の画像処理装置。
- 前記撮像装置により撮像された画像から指標を検出する指標検出手段をさらに備え、
前記画像歪み量導出手段は、前記撮像装置の位置または姿勢の情報と、前記指標の座標情報とに基づいて画像の歪み量を導出することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。 - 前記画像歪み量導出手段は、前記撮像装置の位置または姿勢の変化量に基づいて次のフレームにおける前記撮像装置の位置または姿勢を予測して、当該予測された位置または姿勢に基づいて前記画像の歪み量を導出することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
- 前記画像補正手段により補正された画像を表示部に表示させる表示制御手段をさらに備えることを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。
- 前記主点位置は、前記撮像装置のレンズ中心を通る光軸と画像面とが交わる位置であることを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。
- 前記取得手段は、前記撮像装置の位置または姿勢の一方あるいは両方の情報を取得することを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。
- 前記撮像装置は、ローリングシャッター方式の撮像センサを有することを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。
- 画像処理装置の制御方法であって、
取得手段が、撮像装置の位置または姿勢の情報を取得する工程と、
画像歪み量導出手段が、前記位置または姿勢の変化量に基づいて画像の歪み量を導出する工程と、
主点位置歪み量導出手段が、前記歪み量に基づいて、前記撮像装置の光学系の主点位置の歪み量を導出する工程と、
画像補正手段が、前記画像の歪み量と前記主点位置の歪み量とに基づいて前記画像を補正する工程と、
を有することを特徴とする画像処理装置の制御方法。 - 請求項10に記載の画像処理装置の制御方法の各工程をコンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014078978A JP2015201734A (ja) | 2014-04-07 | 2014-04-07 | 画像処理装置、画像処理装置の制御方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014078978A JP2015201734A (ja) | 2014-04-07 | 2014-04-07 | 画像処理装置、画像処理装置の制御方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015201734A true JP2015201734A (ja) | 2015-11-12 |
Family
ID=54552670
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014078978A Pending JP2015201734A (ja) | 2014-04-07 | 2014-04-07 | 画像処理装置、画像処理装置の制御方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015201734A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018107499A (ja) * | 2016-12-22 | 2018-07-05 | キヤノン株式会社 | 画像表示装置 |
KR101996168B1 (ko) * | 2018-01-12 | 2019-07-03 | 숭실대학교산학협력단 | Cmos 센서의 롤링 셔터 보정을 고려한 가시광 통신 기반의 차량 위치 추정 방법 및 장치 |
CN111738047A (zh) * | 2019-03-25 | 2020-10-02 | 本田技研工业株式会社 | 自身位置推测方法 |
-
2014
- 2014-04-07 JP JP2014078978A patent/JP2015201734A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018107499A (ja) * | 2016-12-22 | 2018-07-05 | キヤノン株式会社 | 画像表示装置 |
KR101996168B1 (ko) * | 2018-01-12 | 2019-07-03 | 숭실대학교산학협력단 | Cmos 센서의 롤링 셔터 보정을 고려한 가시광 통신 기반의 차량 위치 추정 방법 및 장치 |
CN111738047A (zh) * | 2019-03-25 | 2020-10-02 | 本田技研工业株式会社 | 自身位置推测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9696543B2 (en) | Information processing apparatus and information processing method | |
JP6789624B2 (ja) | 情報処理装置、情報処理方法 | |
US11184597B2 (en) | Information processing device, image generation method, and head-mounted display | |
US7834909B2 (en) | Image processing method and image processing apparatus | |
JP4847195B2 (ja) | 画像からの色情報の取得方法 | |
EP3572916B1 (en) | Apparatus, system, and method for accelerating positional tracking of head-mounted displays | |
JP2004213355A (ja) | 情報処理方法 | |
JP2006072903A (ja) | 画像合成方法及び装置 | |
US20100188355A1 (en) | Apparatus and method for detecting an object pointed by a user | |
JP2016171463A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2020004325A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2017092756A (ja) | 画像処理装置、画像処理方法、画像投影システムおよびプログラム | |
KR101349347B1 (ko) | 증강현실을 위한 스마트폰 자이로센서 기반의 정면객체 생성시스템 및 방법 | |
JP2006285789A (ja) | 画像処理方法、画像処理装置 | |
EP3136724B1 (en) | Wearable display apparatus, information processing apparatus, and control method therefor | |
US20190310475A1 (en) | Image display apparatus and image display method | |
JP2015201734A (ja) | 画像処理装置、画像処理装置の制御方法およびプログラム | |
JP2008070319A (ja) | 物体計測装置および方法 | |
JP2018063567A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2004233201A (ja) | 位置姿勢計測方法 | |
CN111240464B (zh) | 眼球追踪的校正方法和其装置 | |
CN108171802B (zh) | 一种云端与终端结合实现的全景增强现实实现方法 | |
JP7319575B2 (ja) | 画像処理装置と、その処理方法、プログラム | |
JP2016042661A (ja) | 情報処理装置、システム、情報処理方法及びプログラム | |
JP2006285786A (ja) | 情報処理方法、情報処理装置 |